Recent, o echipă de cercetători de la Anthropic a raportat observarea a ceea ce ei numesc „prima campanie de spionaj cibernetic orchestrată de AI”, după ce au detectat utilizarea instrumentului lor AI, Claude, de către hackeri chinezi într-o campanie ce a vizat zeci de ținte. Totuși, alte voci din comunitatea de cercetare sunt mai rezervate în evaluarea importanței acestei descoperiri.
Joi, Anthropic a publicat două rapoarte care detaliază descoperirea unei „campanii de spionaj extrem de sofisticate”, orchestrată de un grup susținut de statul chinez, care a folosit Claude Code pentru a automatiza până la 90% din sarcinile procesului. Intervenția umană era necesară „doar sporadic (probabil 4-6 puncte de decizie critice pe campanie)”. Compania a afirmat că hackerii au folosit capacitățile agentice ale AI-ului la un nivel „fără precedent”.
„Această campanie are implicații substanțiale pentru securitatea cibernetică în era agenților AI – sisteme care pot funcționa autonom pentru perioade lungi de timp și care finalizează sarcini complexe cu o minimă intervenție umană”, a declarat Anthropic. „Agenții sunt valoroși pentru munca de zi cu zi și productivitate, dar în mâini greșite, pot crește semnificativ viabilitatea atacurilor cibernetice la scară largă.”
Cu toate acestea, cercetătorii externi nu sunt convinși că descoperirea reprezintă momentul crucial pe care postările Anthropic îl sugerează. Ei se întreabă de ce aceste tipuri de progrese sunt adesea atribuite hackerilor rău intenționați, în timp ce hackerii „pălărie albă” și dezvoltatorii de software legitim raportează doar câștiguri incrementale din utilizarea AI-ului.
„Refuz în continuare să cred că atacatorii sunt capabili să facă aceste modele să execute sarcini pe care nimeni altcineva nu le poate realiza”, a declarat Dan Tentler, fondator executiv al Phobos Group și cercetător cu expertiză în breșe de securitate complexe, pentru Ars. „De ce modelele le oferă acestor atacatori ce își doresc în 90% din timp, în timp ce restul dintre noi trebuie să se confrunte cu obstacole și dificultăți?”
Cercetătorii nu neagă că instrumentele AI pot îmbunătăți fluxul de lucru și pot reduce timpul necesar pentru anumite sarcini, cum ar fi triajul, analiza logurilor și ingineria inversă. Totuși, capacitatea AI-ului de a automatiza o succesiune complexă de sarcini cu atât de puțină interacțiune umană rămâne de neatins. Mulți cercetători compară progresele AI în atacurile cibernetice cu cele oferite de instrumente de hacking precum Metasploit sau SEToolkit, care sunt utilizate de decenii. Nu există îndoială că aceste unelte sunt utile, dar apariția lor nu a crescut semnificativ capacitățile hackerilor sau severitatea atacurilor produse.
O altă cauză pentru care rezultatele nu sunt la fel de impresionante cum se pretinde: actorii amenințării, pe care Anthropic îi urmărește sub numele de GTG-1002, au vizat cel puțin 30 de organizații, inclusiv corporații tehnologice mari și agenții guvernamentale. Din acestea, doar un „număr mic” de atacuri au reușit. Acest fapt ridică întrebări. Chiar presupunând
Poll: Care este opinia ta cu privire la utilizarea agenților AI în campaniile de spionaj cibernetic?


Revista “Ştiinţă şi Tehnică“, cea mai cunoscută şi longevivă publicaţie de popularizare a ştiintelor din România





























Leave a Reply