0
(0)

Luni, guvernatorul Californiei, Gavin Newsom, a promulgat Legea Transparenței în Inteligența Artificială de Frontieră, care impune companiilor AI să-și dezvăluie practicile de siguranță, dar nu merge până la a cere teste de siguranță efective. Noua reglementare obligă companiile cu venituri anuale de cel puțin 500 de milioane de dolari să publice protocoalele de siguranță pe site-urile lor și să raporteze incidentele autorităților statale, însă nu include măsuri de aplicare riguroase, spre deosebire de proiectul de lege pe care Newsom l-a respins anul trecut, după presiuni intense din partea industriei tehnologice.

Legislația, cunoscută sub numele de S.B. 53, înlocuiește tentativa anterioară a senatorului Scott Wiener de a reglementa AI-ul, denumită S.B. 1047, care ar fi cerut testarea de siguranță și implementarea „întrerupătorilor de urgență” pentru sistemele AI. În schimb, noua lege solicită companiilor să descrie cum integrează „standardele naționale, standardele internaționale și cele mai bune practici convenite de industrie” în dezvoltarea AI, fără a specifica acele standarde sau a cere verificare independentă.

„California a demonstrat că putem stabili reglementări pentru a proteja comunitățile noastre, asigurând în același timp că industria AI în expansiune continuă să prospere,” a declarat Newsom, deși măsurile de protecție efective ale legii rămân în mare parte voluntare, dincolo de cerințele de bază de raportare.

Conform guvernului statului California, statul adăpostește 32 dintre cele mai importante 50 de companii de AI din lume, iar peste jumătate din finanțările globale de capital de risc pentru startup-urile AI și de învățare automată au fost direcționate anul trecut către companiile din zona Bay. Astfel, deși este o legislație la nivel de stat, impactul reglementărilor AI din California va avea un ecou mult mai larg, atât prin precedentul legislativ, cât și prin influența asupra companiilor care dezvoltă sisteme AI utilizate la nivel mondial.

Unde proiectul de lege SB 1047 respins ar fi impus testarea de siguranță și întrerupătoare de urgență pentru sistemele AI, noua lege se concentrează pe dezvăluire. Companiile trebuie să raporteze ceea ce statul numește „incidente critice potențiale de siguranță” la Biroul de Servicii de Urgență din California și să ofere protecții pentru angajații care semnalează preocupări legate de siguranță. Legea definește riscul catastrofal în termeni restrânși, ca incidente care pot provoca peste 50 de decese sau daune de 1 miliard de dolari prin asistență în armament, acte criminale autonome sau pierderea controlului. Procurorul general poate impune sancțiuni civile de până la 1 milion de dolari per încălcare pentru nerespectarea acestor cerințe de raportare.

Schimbarea de la testarea obligatorie a siguranței la dezvăluire voluntară urmează un an de lobby intens. Conform The New York Times, Meta și firma de capital de risc Andreessen Horowitz au promis până la 200 de milioane de dolari către două super PAC-uri separate care sprijină politicienii favorabili industriei AI, în timp ce companiile au împins pentru legislație federală care ar preîntâmpina regulile statale AI.

Poll: Ce măsură considerați că ar fi mai eficientă pentru reglementarea companiilor AI în ceea ce privește siguranța și transparența acestora?




Formular 230 Asociatia Science&Technology

Cât de util a fost acest articol pentru tine?

Dă click pe o steluță să votezi!

Medie 0 / 5. Câte voturi s-au strâns din 1 ianuarie 2024: 0

Nu sunt voturi până acum! Fii primul care își spune părerea.

Întrucât ai considerat acest articol folositor ...

Urmărește-ne pe Social Media!

Ne pare rău că acest articol nu a fost util pentru tine!

Ajută-ne să ne îmbunătățim!

Ne poți spune cum ne putem îmbunătăți?

Revista “Ştiinţă şi Tehnică“, cea mai cunoscută şi longevivă publicaţie de popularizare a ştiintelor din România

Leave a Reply

Your email address will not be published. Required fields are marked *

  • Rating