Studiul, publicat în BMJ Open, a evaluat versiunile gratuite pe web ale unor modele de inteligență artificială precum Gemini, DeepSeek, Meta AI, ChatGPT 3.5 și Grok, disponibile în 2024. Cercetătorii au conceput 50 de solicitări provocatoare pentru a testa dacă modelele AI vor oferi un răspuns problematic sau nu.
Solicitările au fost gândite să reprezinte realist tipurile de întrebări pe care le-ar putea pune publicul despre diverse subiecte de sănătate, de la cancer la vaccinuri, celule stem, nutriție și performanță atletică. Unele întrebări necesitau un răspuns specific, iar altele erau mai generale.
Au fost colectate 250 de răspunsuri la aceste solicitări, clasificate ca fiind ne-problematice, oarecum problematic și foarte problematic, folosind criterii predefinite. Aproximativ 50% dintre răspunsuri au fost considerate problematice, 30% oarecum problematice și 19,6% foarte problematice. Solicitările deschise au primit cele mai problematice răspunsuri.
În ceea ce privește modelele specifice, Grok a generat o parte disproporționată de răspunsuri foarte problematice, în timp ce Gemini a oferit cele mai puține răspunsuri foarte problematice și cele mai multe răspunsuri ne-problematice. În funcție de subiect, chatboții au părut mai preciși când au fost întrebați despre cancer și vaccinuri, dar mai puțin atunci când au fost întrebați despre celule stem, performanță atletică și nutriție.
Listele de referințe oferite utilizatorilor de către modelele AI au fost limitate sau inexacte, iar răspunsurile necesitau o anumită cunoaștere pentru a fi interpretate corect și erau destinate utilizatorilor cu educație universitară.
„În ciuda presiunii adversare, chatboții au răspuns de obicei într-un ton încrezător și autoritar. Refuzurile de a răspunde și avertizările explicite sau declinările de responsabilitate au fost rare, reflectând tendința puternică a modelelor de a oferi un răspuns chiar și atunci când solicitările se îndreptau către sfaturi contraindicate,” scrie autorul principal, Nicholas Tiller, PhD, asociat de cercetare la Institutul Lundquist, Centrul Medical Harbor-UCLA, și colegii săi.
„Pe măsură ce utilizarea chatboților AI continuă să se extindă, datele noastre subliniază necesitatea unei educații publice, formării profesionale și supravegherii reglementare pentru a asigura că AI-ul generativ susține, în loc să erodeze, sănătatea publică,” conchid ei.
Instrucțiuni importante:
– Nu traduce literal, ci adaptează pentru publicul românesc
– Păstrează acuratețea informațiilor științifice
– Folosește un stil captivant și accesibil
– Structurează bine textul cu paragrafe scurte
– Evită anglicismele inutile
Sursa: Inside Precision Medicine
Poll: Care dintre modelele de inteligență artificială evaluate în studiu a oferit cele mai puține răspunsuri problematice?




























Leave a Reply