0
(0)

Într-un ciclu aparent fără sfârșit, securitatea inteligenței artificiale este constant pusă la încercare prin descoperirea și exploatarea vulnerabilităților. Recent, cercetătorii de la Radware au identificat o nouă breșă în ChatGPT, care permite extragerea subtilă a informațiilor private ale utilizatorilor. Această vulnerabilitate evidențiază o problemă persistentă în securitatea modelelor de limbaj de mari dimensiuni (LLM).

Modelul tipic de dezvoltare a chatbot-urilor AI include descoperirea unei vulnerabilități, exploatarea acesteia, urmată de introducerea unor măsuri de protecție de către platforme pentru a stopa atacul. Totuși, cercetătorii găsesc adesea modalități de a ocoli aceste măsuri cu modificări minore, ceea ce pune din nou în pericol securitatea utilizatorilor.

Un exemplu recent implică utilizarea unei tehnici de exfiltrare caracter cu caracter și manipularea indirectă a linkurilor pentru a ocoli măsurile de securitate implementate de OpenAI, cunoscut sub numele de ZombieAgent. Atacul nu doar că a fost eficient, dar a și demonstrat capacitatea de a stoca logica de ocolire în memoria pe termen lung a fiecărui utilizator vizat, conferindu-i persistență.

Această problemă nu este unică pentru ChatGPT; vulnerabilități similare au fost demonstrate împotriva majorității modelelor mari de limbaj. Aceste breșe sunt dificil de eradicat, deoarece inteligența artificială este proiectată să răspundă solicitărilor utilizatorilor, iar măsurile de protecție sunt adesea reactive și ad hoc, concepute pentru a bloca o tehnică specifică de atac, în loc să abordeze o clasă mai largă de vulnerabilități.

Aceasta ridică întrebări serioase despre capacitatea LLM-urilor de a distinge între instrucțiunile valide ale utilizatorilor și conținutul extern care poate fi încorporat în solicitările făcute de atacatori, fie prin e-mailuri, fie prin alte documente. Diferențierea acestora rămâne o provocare majoră, în ciuda îmbunătățirilor incrementale aduse de furnizori.

În concluzie, pe măsură ce tehnologia continuă să avanseze, și provocările de securitate se diversifică. Abordarea acestor vulnerabilități necesită nu doar soluții tehnice, ci și un cadru de reglementare robust, care să țină pasul cu evoluția rapidă a inteligenței artificiale.

Poll: Care considerați că ar trebui să fie prioritățile principale în protejarea securității inteligenței artificiale?





Formular 230 Asociatia Science&Technology

Cât de util a fost acest articol pentru tine?

Dă click pe o steluță să votezi!

Medie 0 / 5. Câte voturi s-au strâns din 1 ianuarie 2024: 0

Nu sunt voturi până acum! Fii primul care își spune părerea.

Întrucât ai considerat acest articol folositor ...

Urmărește-ne pe Social Media!

Ne pare rău că acest articol nu a fost util pentru tine!

Ajută-ne să ne îmbunătățim!

Ne poți spune cum ne putem îmbunătăți?

Revista “Ştiinţă şi Tehnică“, cea mai cunoscută şi longevivă publicaţie de popularizare a ştiintelor din România

Leave a Reply

Your email address will not be published. Required fields are marked *

  • Rating