5
(1)

Marți, Microsoft a lansat un avertisment care a stârnit reacții în rândul specialiștilor în securitate: o nouă funcție AI experimentală integrată în Windows ar putea infecta dispozitivele și sustrage date personale sensibile. Acest lucru ridică întrebări serioase despre rapiditatea cu care marile companii tehnologice implementează noi funcționalități, fără a înțelege pe deplin și a controla riscurile asociate.

Microsoft a introdus Copilot Actions, descris ca un set de “funcții agențice experimentale” care, odată activate, facilitează realizarea “sarcinilor cotidiene precum organizarea fișierelor, programarea întâlnirilor sau trimiterea de email-uri”. Această funcție promite să devină un colaborator digital activ, capabil să execute sarcini complexe pentru a îmbunătăți eficiența și productivitatea utilizatorului.

Cu toate acestea, lansarea acestor capabilități a venit cu un avertisment semnificativ: Microsoft recomandă activarea Copilot Actions doar “dacă utilizatorii înțeleg implicațiile de securitate descrise”.

Avertismentul se bazează pe defectele cunoscute ale majorității modelelor mari de limbaj, inclusiv Copilot, defecte care au fost demonstrate repetat de către cercetători. Un defect comun al acestor modele este tendința de a oferi răspunsuri eronate și ilogice, uneori chiar la întrebări simple. Această tendință, denumită “halucinație”, face ca output-urile generate de asistenți precum Copilot, Gemini sau Claude să nu fie de încredere, necesitând verificări independente din partea utilizatorilor.

Un alt pericol frecvent întâlnit în rândul acestor modele este “injecția de prompt”, un tip de bug care permite hackerilor să introducă instrucțiuni malițioase în site-uri web, CV-uri și email-uri. Modelele sunt programate să urmeze instrucțiuni cu o așa zel, încât nu pot distinge între prompt-urile valide ale utilizatorilor și conținutul nesigur creat de atacatori, tratându-le pe ambele cu aceeași deferință.

Aceste defecte pot fi exploatate în atacuri care sustrag date sensibile, execută coduri malițioase și fură criptomonede. Până în prezent, aceste vulnerabilități s-au dovedit a fi imposibil de prevenit de către dezvoltatori, putând fi remediate doar prin soluții specifice descoperite după identificarea vulnerabilităților.

În acest context, marți, Microsoft a făcut o dezvăluire importantă: “Pe măsură ce aceste capabilități sunt introduse, modelele AI se confruntă încă cu limitări funcționale în ceea ce privește comportamentul lor și pot, ocazional, să halucineze și să producă output-uri neașteptate”. Mai mult, aplicațiile AI agențice introduc riscuri de securitate noi, cum ar fi injecția trans-prompt (XPIA), unde conținutul malițios încorporat în elementele UI sau documente poate suprascrie instrucțiunile agentului, ducând la acțiuni nedorite precum exfiltrarea datelor sau instalarea de malware.

Microsoft indică faptul că doar utilizatorii experimentați ar trebui să activeze Copilot Actions, care în prezent este disponibil doar în versiunile beta ale Windows. Compania, totuși, nu a specificat ce tip de pregătire sau experiență ar trebui să aibă acești utilizatori sau ce măsuri de precauție ar trebui să ia.

Poll: Care este atitudinea ta față de utilizarea Copilot Actions introdus de Microsoft în Windows?





Formular 230 Asociatia Science&Technology

Cât de util a fost acest articol pentru tine?

Dă click pe o steluță să votezi!

Medie 5 / 5. Câte voturi s-au strâns din 1 ianuarie 2024: 1

Nu sunt voturi până acum! Fii primul care își spune părerea.

Întrucât ai considerat acest articol folositor ...

Urmărește-ne pe Social Media!

Ne pare rău că acest articol nu a fost util pentru tine!

Ajută-ne să ne îmbunătățim!

Ne poți spune cum ne putem îmbunătăți?

Revista “Ştiinţă şi Tehnică“, cea mai cunoscută şi longevivă publicaţie de popularizare a ştiintelor din România

Leave a Reply

Your email address will not be published. Required fields are marked *

  • Rating