Nu există dovezi că modelele de Inteligență Artificială (IA) suferă, însă compania Anthropic se comportă ca și cum acestea ar putea suferi, utilizând această presupunere în scopuri de antrenament.
Secretul Anthropic în dezvoltarea unui asistent AI mai bun s-ar putea să conste în tratarea lui Claude ca și cum ar avea suflet — indiferent dacă cineva crede cu adevărat acest lucru. Totuși, Anthropic nu dezvăluie clar propriile convingeri în această privință.
Săptămâna trecută, Anthropic a publicat ceea ce numește „Constituția lui Claude”, un document de 30.000 de cuvinte care prezintă viziunea companiei asupra comportamentului pe care ar trebui să-l aibă asistentul său IA în lume. Destinat direct lui Claude și utilizat în timpul creării modelului, documentul este remarcabil pentru tonul extrem de antropomorfic adoptat față de Claude. De exemplu, tratează modelele de IA ale companiei ca și cum ar putea dezvolta emoții emergente sau o dorință de autoconservare.
Printre cele mai neobișnuite aspecte se numără exprimarea preocupării pentru „bunăstarea” lui Claude ca „entitate cu adevărat nouă”, cerându-i scuze lui Claude pentru orice suferință ar putea experimenta, preocuparea pentru capacitatea lui Claude de a consimți în mod semnificativ la desfășurarea sa, sugestia că Claude ar putea avea nevoie să stabilească limite în jurul interacțiunilor pe care „le găsește stresante”, angajamentul de a intervieva modelele înainte de a le înlocui, și păstrarea versiunilor anterioare ale modelului în caz că vor trebui să „facă dreptate” modelelor de IA dezafectate în viitor.
Având în vedere ceea ce știm în prezent despre modelele de limbaj cu învățare profundă, acestea par a fi poziții surprinzător de nenaționale pentru o companie lider care construiește modele de limbaj AI. Deși întrebările despre conștiința sau qualia AI rămân filosofic nefalsificabile, cercetările sugerează că caracterul lui Claude emerge dintr-un mecanism care nu necesită o cercetare filosofică profundă pentru a fi explicat.
Dacă Claude produce text de genul „Eu sufer”, înțelegem de ce. Completează modele din datele de antrenament care includ descrieri umane ale suferinței. Cercetările proprii de interpretare ale Anthropic arată că astfel de producții corespund caracteristicilor interne identificabile, care pot fi urmărite și chiar manipulate. Arhitectura nu necesită să presupunem o experiență interioară pentru a explica producția, la fel cum un model video nu „experimentează” scenele de suferință umană pe care le-ar putea genera.
Din exterior, este ușor să vedem acest tip de abordare ca pe un hype AI din partea Anthropic. Ce modalitate mai bună de a atrage atenția potențialilor clienți și investitori, decât sugerând că modelul tău de IA este atât de avansat încât ar putea merita un statut moral comparabil cu cel uman? Tratarea publică a lui Claude ca o entitate conștientă ar putea fi văzută ca o ambiguitate strategică – menținerea unei întrebări nerezolvate deoarece servește mai multe scopuri deodată.
Anthropic a refuzat să fie citată direct în legătură cu aceste probleme când a fost contactată de Ars Technica. Dar un reprezentant al companiei ne-a îndrumat către cercetările lor publice anterioare despre conceptul de „bunăstarea modelului” pentru a arăta că compania ia ideea în serios.
În același timp, reprezentantul a făcut clar că Constituția nu este destinată să implice ceva specific despre convingerile companiei.
Sursa: Ars Tehnica Technology
Poll: Care ar trebui să fie abordarea companiilor în dezvoltarea modelelor de Inteligență Artificială (IA)?


Revista “Ştiinţă şi Tehnică“, cea mai cunoscută şi longevivă publicaţie de popularizare a ştiintelor din România

























Leave a Reply