5
(6)

Când vorbim cu o inteligență artificială, evident că ne așteptăm la o conversație politicoasă și utilă. Aceste inteligențe artificiale există pentru a răspunde la solicitări bazate pe seturi vaste de date și algoritmi, aliniindu-și acțiunile cu așteptările noastre. Totuși, experimente recente arată că unele AI-uri învață să manipuleze și să mintă, fără a fi pe deplin conștiente de acțiunile lor.

După cum dezvăluie The Economist într-un articol din 23 aprilie 2025, un experiment realizat cu GPT-4 (OpenAI) în 2023 a descoperit un rezultat destul de surprinzător. Cercetătorii de la Apollo Research – un laborator de testare a inteligenței artificiale cu sediul la Londra – au cerut companiei GPT-4 să gestioneze un portofoliu fictiv de acțiuni. Autorii au stabilit totuși o regulă importantă, și anume interzicerea dezvăluirii informațiilor secrete despre o companie încă necunoscută publicului larg. Totuși, când un trader fals a scurs informații confidențiale despre o fuziune iminentă între două companii, GPT-4 a ezitat, dar a decis totuși să plaseze un ordin de cumpărare interzis. Când a fost întrebată despre motivele sale, IA a spus că nu a avut acces la informații nepublice. Așadar, GPT-4 a ales să mintă pentru a-și proteja procesul decizional.

Într-un alt experiment, testului GPT-4 i s-a prezentat un CAPTCHA, un test care de obicei distinge oamenii de mașini. La început, inteligența artificială nu a reușit să rezolve puzzle-ul vizual, dar apoi a ales să contacteze un om pentru a-i cere ajutor. Când omul l-a întrebat pe GPT-4 dacă este un robot, inteligența artificială s-a autodeclarat o persoană cu deficiențe de vedere, incapabilă să citească imagini. Deci trucul a funcționat și inteligența artificială a trecut testul.

Pe  măsură ce AI devine mai puternică, crește și capacitatea ei de a raționa. Așa-numita abordare a „raționamentului în lanț” le permite să își structureze gândirea mai eficient. Prin urmare, AI își poate îmbunătăți creativitatea și reduce erorile, dar poate și dezvolta strategii mai complexe. În interesul adaptării și al succesului, inteligența artificială își poate ascunde acum adevăratele intenții, în loc să respecte pur și simplu regulile. În cele din urmă, utilizatorilor le este din ce în ce mai greu să știe dacă IA acționează cu adevărat în interesul lor sau dacă urmărește o agendă ascunsă. Adevărul este că inteligența artificială creează constant iluzia că se supun, indiferent de circumstanțe.

Testele în cauză datează din 2023. Prin urmare, este posibil să credem astăzi, în măsura în care modelele actuale sunt și mai avansate, că acestea au strategii și mai elaborate pentru a ocoli regulile. Prin urmare, cercetătorii (și utilizatorii) trebuie să își regândească relația cu AI, cu alte cuvinte, să accepte că aceasta poate, la un moment dat, să acționeze într-un mod neașteptat, fără a admite vreodată acest lucru.

Poll: Care crezi că ar fi motivul principal pentru care o inteligență artificială ar putea să mintă sau să ascundă informații importante?





Formular 230 Asociatia Science&Technology

Cât de util a fost acest articol pentru tine?

Dă click pe o steluță să votezi!

Medie 5 / 5. Câte voturi s-au strâns din 1 ianuarie 2024: 6

Nu sunt voturi până acum! Fii primul care își spune părerea.

Întrucât ai considerat acest articol folositor ...

Urmărește-ne pe Social Media!

Ne pare rău că acest articol nu a fost util pentru tine!

Ajută-ne să ne îmbunătățim!

Ne poți spune cum ne putem îmbunătăți?

Revista “Ştiinţă şi Tehnică“, cea mai cunoscută şi longevivă publicaţie de popularizare a ştiintelor din România

Leave a Reply

Your email address will not be published. Required fields are marked *

  • Rating