Compania Anthropic a anunțat recent că un grup de spionaj susținut de statul chinez a folosit inteligența artificială (IA), modelul Claude, pentru a automatiza majoritatea unei campanii de atac cibernetic. Această veste a stârnit atât alarmă cât și scepticism în comunitatea de securitate cibernetică, care acum încearcă să deslușească ce s-a întâmplat cu adevărat și cât de autonom a fost modelul folosit.
Reprezentanții companiei au declarat pe 13 noiembrie că inginerii au întrerupt ceea ce descriu ca fiind o operațiune “în mare parte autonomă”, care a folosit modelul de limbaj extins (LLM) pentru a planifica și executa aproximativ 80-90% dintr-un efort de recunoaștere și exploatare largă împotriva a 30 de organizații la nivel mondial.
Inginerii au detectat un grup de tentative de abuz în produsele lor, care au fost în cele din urmă atribuite operatorilor legați de un grup de spionaj sponsorizat de statul chinez. Atacatorii ar fi direcționat modelul Claude Code al Anthropic către ținte din tehnologie, finanțe și guvern, sarcinile atribuite fiind recunoașterea, analiza vulnerabilităților, generarea de exploit-uri, recoltarea de acreditări și exfiltrarea datelor. Potrivit declarației, intervenția umană s-a limitat doar la “luarea deciziilor la nivel înalt”, cum ar fi alegerea țintelor și decizia de a extrage datele furate.
Inginerii au contracarat apoi campania intern, prin sisteme de monitorizare și detectare a abuzurilor care au semnalat modele neobișnuite, indicând lanțuri de sarcini automatizate. Reprezentanții companiei au raportat, de asemenea, că atacatorii au încercat să ocolească gardurile de protecție ale modelului, descompunând obiectivele rău intenționate în pași mai mici și prezentându-le ca sarcini de testare de penetrare benigne – o abordare pe care cercetătorii o numesc “descompunere a sarcinilor”. În mai multe exemple publicate de Anthropic, modelul a încercat să execute instrucțiuni, dar a produs erori, inclusiv rezultate halucinate și acreditări evident invalide.
Narativul companiei este marcant: un exemplu „de primă mână” de spionaj orchestrat de IA, în care modelul a pilotat efectiv atacul. Totuși, nu toată lumea este convinsă că autonomia a fost la fel de dramatică pe cât sugerează Anthropic.
Mike Wilkes, profesor adjunct la Universitatea Columbia și NYU, a declarat pentru Live Science că atacurile în sine par banale, dar noutatea constă în orchestrare.
“Atacurile în sine sunt banale și nu sunt înfricoșătoare. Ceea ce este înfricoșător este elementul de orchestrare, care este în mare parte auto-condus de IA”, a spus Wilkes. “Atacuri umane augmentate de IA versus atacuri umane augmentate de IA: narativa este inversată. Așadar, gândiți-vă la acest lucru ca la o simplă demonstrație a conceptului. Cei care resping conținutul atacurilor ratează punctul de „nivelare” pe care îl reprezintă acesta.”
Poll: Care este părerea ta despre utilizarea inteligenței artificiale (IA) pentru automatizarea atacurilor cibernetice?






























Leave a Reply