Vineri, inginerul de la OpenAI, Michael Bolin, a publicat o analiză tehnică detaliată despre modul în care funcționează intern agentul de codare Codex CLI, oferind dezvoltatorilor o perspectivă asupra uneltelor de codare AI care pot scrie cod, rula teste și remedia erori sub supravegherea umană. Acesta completează articolul nostru din decembrie despre modul în care funcționează agenții AI, adăugând detalii tehnice despre implementarea buclei “agențice” de către OpenAI.
Agenții de codare AI trăiesc un moment asemănător cu “momentul ChatGPT”, în care Claude Code cu Opus 4.5 și Codex cu GPT-5.2 au atins un nou nivel de utilitate pentru crearea rapidă de prototipuri, interfețe și generarea de cod standard. Publicarea detaliilor de către OpenAI despre filozofia de design din spatele Codex vine chiar în momentul în care agenții AI devin unelte practice pentru munca de zi cu zi.
Aceste unelte nu sunt perfecte și rămân controversate pentru unii dezvoltatori de software. Deși OpenAI a declarat anterior pentru Ars Technica că utilizează Codex ca un instrument de codare pentru a ajuta la dezvoltarea produsului Codex în sine, am descoperit, prin experiență directă, că aceste unelte pot fi incredibil de rapide pentru sarcini simple, dar rămân fragile dincolo de datele lor de antrenament și necesită supraveghere umană pentru munca de producție. Cadrul general al unui proiect apare rapid și pare magic, dar completarea detaliilor implică depanări plictisitoare și soluții de compromis pentru limitările pe care agentul nu le poate depăși singur.
Postarea lui Bolin nu evită aceste provocări inginerești. El discută despre ineficiența creșterii prompturilor pătratice, problemele de performanță cauzate de rateurile cache-ului și bug-urile descoperite de echipă (cum ar fi instrumentele MCP enumerate incoerent) pe care au trebuit să le remedieze.
Nivelul detaliilor tehnice este oarecum neobișnuit pentru OpenAI, care nu a publicat descompuneri similare despre modul în care alte produse precum ChatGPT funcționează intern, de exemplu (există multe lucruri sub acel capot despre care am dori să știm). Dar am văzut deja cum OpenAI tratează diferit Codex în timpul interviului nostru din decembrie, notând că sarcinile de programare par ideal potrivite pentru modelele mari de limbaj.
Merită menționat că atât OpenAI, cât și Anthropic își deschid codul sursă pentru clienții lor CLI de codare pe GitHub, permițând dezvoltatorilor să examineze implementarea direct, spre deosebire de ChatGPT sau interfața web Claude.
Postarea lui Bolin se concentrează pe ceea ce el numește “bucla agentului”, care este logica de bază ce orchestrează interacțiunile între utilizator, modelul AI și uneltele software pe care modelul le invocă pentru a efectua lucrul de codare.
Așa cum am scris în decembrie, în centrul fiecărui agent AI este un ciclu repetitiv. Agentul primește intrare de la utilizator și pregătește un prompt textual pentru model. Modelul generează apoi un răspuns, care fie produce un răspuns final pentru utilizator, fie solicită apelarea unei unelte (cum ar fi rularea unei comenzi shell sau citirea unui fișier). Dacă modelul solicită un apel de unealtă, agentul îl execută, atașează răspunsul la prompt și procesul se repetă.
Sursa: Ars Tehnica Technology
Poll: Care este nivelul de utilizare al agenților de codare AI, precum Codex CLI, în mediul dumneavoastră de lucru?


Revista “Ştiinţă şi Tehnică“, cea mai cunoscută şi longevivă publicaţie de popularizare a ştiintelor din România
















Leave a Reply