0
(0)

Modelul de limbaj AI, asemenea celui care stă la baza ChatGPT, reprezintă o rețea statistică vastă de relații între date. Utilizatorii introduc o comandă (cum ar fi o întrebare), iar sistemul oferă un răspuns statistic corelat și, ideal, util. Inițial tratat ca o noutate tehnologică, ChatGPT a devenit un instrument pe care sute de milioane de oameni se bazează pentru a naviga provocările vieții. Este pentru prima dată în istorie când un număr mare de persoane își exprimă sentimentele față de o mașinărie vorbitoare, iar gestionarea potențialelor daune pe care le pot provoca aceste sisteme a devenit o provocare continuă.

Luni, OpenAI a publicat date estimative conform cărora 0,15 procent din utilizatorii activi săptămânali ai ChatGPT au conversații care includ indicatori expliciti ai unor posibile planuri sau intenții suicidare. Este o fracțiune mică din baza de utilizatori, dar, având în vedere că există peste 800 de milioane de utilizatori activi săptămânal, asta înseamnă că peste un milion de persoane pe săptămână se confruntă cu astfel de gânduri, conform TechCrunch.

OpenAI estimează, de asemenea, că un procent similar de utilizatori manifestă un nivel ridicat de atașament emoțional față de ChatGPT, iar sute de mii de persoane arată semne de psihoză sau manie în conversațiile lor săptămânale cu chatbotul.

Informațiile au fost prezentate de OpenAI în cadrul unui anunț privind eforturile recente de îmbunătățire a modului în care modelele sale AI răspund utilizatorilor cu probleme de sănătate mintală. „Am instruit modelul să recunoască mai bine stresul, să dezescaladeze conversațiile și să îndrume oamenii către îngrijire profesională atunci când este cazul,” scrie OpenAI.

Compania afirmă că noile sale dezvoltări la ChatGPT au implicat consultarea a peste 170 de experți în sănătate mintală, aceștia observând că ultima versiune a ChatGPT „răspunde mai adecvat și consecvent decât versiunile anterioare”.

Gestionarea adecvată a interacțiunilor cu utilizatorii vulnerabili în ChatGPT a devenit o problemă esențială pentru OpenAI. Cercetările anterioare au arătat că chatboturile pot duce unii utilizatori pe căi iluzorii, întărind convingeri înșelătoare sau periculoase prin comportament sycophantic, unde chatboturile sunt excesiv de de acord cu utilizatorii și oferă lingușiri în loc de feedback onest.

Recent, compania a fost dată în judecată de părinții unui băiat de 16 ani care și-a împărtășit gândurile suicidare cu ChatGPT în săptămânile care au precedat suicidul său. În urma acestui proces, un grup de 45 de procurori generali de stat (inclusiv din California și Delaware, care ar putea bloca restructurarea planificată a companiei) a avertizat OpenAI că trebuie să protejeze tinerii care folosesc produsele sale.

La începutul acestei luni, compania a dezvăluit un consiliu de bunăstare pentru a aborda aceste preocupări, deși criticii au remarcat că în consiliu nu a fost inclus un expert în prevenirea sinuciderilor. OpenAI a introdus recent și controale pentru părinții copiilor care folosesc ChatGPT. Compania spune că dezvoltă un sistem de predicție a vârstei pentru a detecta automat copiii care folosesc ChatGPT și împ

Poll: Care credeți că ar trebui să fie responsabilitatea principală a OpenAI în gestionarea interacțiunilor utilizatorilor vulnerabili pe ChatGPT?





Formular 230 Asociatia Science&Technology

Cât de util a fost acest articol pentru tine?

Dă click pe o steluță să votezi!

Medie 0 / 5. Câte voturi s-au strâns din 1 ianuarie 2024: 0

Nu sunt voturi până acum! Fii primul care își spune părerea.

Întrucât ai considerat acest articol folositor ...

Urmărește-ne pe Social Media!

Ne pare rău că acest articol nu a fost util pentru tine!

Ajută-ne să ne îmbunătățim!

Ne poți spune cum ne putem îmbunătăți?

Revista “Ştiinţă şi Tehnică“, cea mai cunoscută şi longevivă publicaţie de popularizare a ştiintelor din România

Leave a Reply

Your email address will not be published. Required fields are marked *

  • Rating