0
(0)

Agenţii de codare AI dezvoltaţi de companii precum OpenAI, Anthropic și Google au capacitatea de a lucra la proiecte software timp de ore în şir, scriind aplicații complete, executând teste şi corectând erori sub supravegherea umană. Cu toate acestea, aceste unelte nu sunt magice şi pot complica, în loc să simplifice, un proiect software. Înţelegerea mecanismelor lor interne poate ajuta dezvoltatorii să decidă când şi dacă să le folosească, evitând astfel capcanele comune.

Începem cu bazele: Inima fiecărui agent de codare AI este un model de limbaj de mari dimensiuni (LLM), o reţea neurală antrenată pe cantităţi enorme de date text, inclusiv mult cod de programare. Este o maşină de potrivire a tiparelor care foloseşte o comandă pentru a “extrage” reprezentări statistice comprimate ale datelor observate în timpul antrenamentului şi pentru a oferi o continuare plauzibilă a acestui tipar ca output. În această extracţie, un LLM poate interpola între domenii şi concepte, rezultând unele inferenţe logice utile când este bine configurat şi erori de fabulaţie când configurarea este deficitară.

Aceste modele de bază sunt apoi rafinate prin tehnici precum fine-tuning pe exemple curate și învăţarea prin întărire de la feedback uman (RLHF), care modelează agentul să urmeze instrucţiuni, să utilizeze unelte și să producă rezultate mai utile.

În ultimii ani, cercetătorii AI au investigat deficiențele LLM-urilor și au căutat modalități de a le compensa. O inovație recentă a fost modelul de raţionament simulat, care generează context (extinzând comanda) sub forma unui text de tip raţionament, ce poate ajuta un LLM să se concentreze pe un output mai precis. O altă inovație a fost aplicația numită „agent”, care leagă mai multe LLM-uri pentru a efectua sarcini simultan și a evalua outputurile.

În acest sens, fiecare agent de codare AI este un înveliș de program care lucrează cu multiple LLM-uri. De obicei, există un LLM „supervizor” care interpretează sarcinile (comenzile) de la utilizatorul uman și apoi le atribuie altor LLM-uri paralele care pot folosi unelte software pentru a executa instrucţiunile. Agentul supervizor poate întrerupe sarcinile subordonate și evalua rezultatele sub-sarcinilor pentru a verifica progresul proiectului. Documentația tehnică a Anthropic descrie acest model ca „adună context, ia măsuri, verifică munca, repetă”.

Dacă sunt rulați local prin interfața de linie de comandă (CLI), utilizatorii acordă agenţilor permisiunea condiţionată de a scrie fişiere pe maşina locală (cod sau orice este necesar), de a rula comenzi exploratorii (de exemplu, „ls” pentru a lista fişierele dintr-un director), de a accesa site-uri web (de obicei folosind „curl”), de a descărca software sau de a încărca fişiere pe servere la distanţă. Există multe posibilităţi (şi pericole potenţiale) cu această abordare, aşa că trebuie folosită cu precauţie.

În contrast, când un utilizator începe o sarcină în agentul bazat pe web, cum ar fi versiunile web ale Codex și Claude Code, sistemul pregăteşte un container cloud sandboxat încărcat cu repository-ul de cod al utilizatorului, unde Codex poate citi și

Sursa: Ars Tehnica Technology

Poll: Care metodă consideri că este cea mai eficientă pentru rafinarea modelelor de limbaj de mari dimensiuni utilizate de agenții de codare AI?





Formular 230 Asociatia Science&Technology

Cât de util a fost acest articol pentru tine?

Dă click pe o steluță să votezi!

Medie 0 / 5. Câte voturi s-au strâns din 1 ianuarie 2024: 0

Nu sunt voturi până acum! Fii primul care își spune părerea.

Întrucât ai considerat acest articol folositor ...

Urmărește-ne pe Social Media!

Ne pare rău că acest articol nu a fost util pentru tine!

Ajută-ne să ne îmbunătățim!

Ne poți spune cum ne putem îmbunătăți?

Revista “Ştiinţă şi Tehnică“, cea mai cunoscută şi longevivă publicaţie de popularizare a ştiintelor din România

Leave a Reply

Your email address will not be published. Required fields are marked *

  • Rating