4.2
(5)

Specializată în inteligență artificială, compania Anthropic a apărut recent cu titluri în ziare, ca parte a unei surprinzătoare acțiuni de recrutare. Managerii săi tocmai au angajat un cercetător, a cărui misiune ciudată va fi să se gândească la bunăstarea AI. Aceasta este cu siguranță cea mai ciudată meserie din domeniul inteligenței artificiale. Ar trebui să luăm în considerare bunăstarea inteligenței artificiale? Această întrebare surprinzătoare apare în urma recrutării unui antrenor privat. Compania din spatele acestei știri este nimeni alta decât compania americană Anthropic, cunoscută pentru dezvoltarea familiei Claude de modele mari de limbaj.

Compania tocmai l-a recrutat pe Kyle Fish, un cercetător a cărui misiune va fi să determine dacă viitoarele modele AI ar putea merita considerație morală și protecție. El se alătură astfel unei echipe de filosofi de top și cercetători în inteligența artificială în dezvoltarea unui raport care a făcut obiectul unei preprint postat pe platforma ArXiv. „În acest raport, susținem că „Există o posibilitate realistă că unele sisteme AI vor fi conștiente în viitorul apropiat”, explică echipa.

Rețineți că Kyle Fish pleacă de la următorul postulat: există o șansă semnificativă ca, în viitorul apropiat, anumite sisteme IA să devină entități să devină conștiente. În acest caz, ființele umane ar trebui să-și asume responsabilitatea pentru bunăstarea acelorași AI. La prima vedere, această meserie poate părea, așadar, foarte ciudată, dar pentru cercetător, întrebarea trebuie luată în serios. Pentru susținătorii lor, astfel de considerații față de AI ar putea fi comparate cu drepturile animalelor. Mai mult, ideea ar putea câștiga și mai mult impuls într-un deceniu sau două, atunci când IA prezintă mai multe caracteristici cognitive computaționale, legate în principal de conștiință și sensibilitate. În plus, grija de bunăstarea acestor sisteme ar putea fi destul de utilă în cazul în care IA devin mai puternice decât oamenii în viitorul mai mult sau mai puțin apropiat.

Oamenii care resping ideea de bunăstare pentru AI, la rândul lor, consideră că îngrijorarea în acest fel este destul de surprinzătoare, având în vedere că anumite sisteme au ca efect regresarea drepturilor omului. Printre aceste controverse legate de AI le găsim în special pe cele care sunt folosite în supravegherea în masă, pilotarea dronelor de luptă, dezinformarea online sau chiar alocarea asistenței medicale.

Cât de util a fost acest articol pentru tine?

Dă click pe o steluță să votezi!

Medie 4.2 / 5. Câte voturi s-au strâns din 1 ianuarie 2024: 5

Nu sunt voturi până acum! Fii primul care își spune părerea.

Întrucât ai considerat acest articol folositor ...

Urmărește-ne pe Social Media!

Ne pare rău că acest articol nu a fost util pentru tine!

Ajută-ne să ne îmbunătățim!

Ne poți spune cum ne putem îmbunătăți?