0
(0)

Modelele avansate de limbaj (LLMs) ar putea egala sau chiar depăși competențele medicilor în diagnosticarea și gestionarea clinică, conform unor descoperiri recente ce ar putea revoluționa practica medicală.

Capabilitățile complete ale primului model de raționament al OpenAI, o1-preview, lansat în septembrie 2024, au fost demonstrate în scenarii de cazuri clinice și situații reale de urgență.

Acest model de ultimă generație a egalat sau chiar depășit performanța medicilor în sarcinile de raționament clinic în cadrul a șase experimente, conform unui studiu publicat în revista Science.

Punctele forte ale modelului au fost evidente în oferirea de opinii secundare în cazuri medicale reale, neorganizate, din departamentul de urgență, unde medicii trebuie să ia decizii rapide bazate adesea pe informații limitate.

„Rezultatele noastre sugerează că LLMs au depășit acum majoritatea standardelor de raționament clinic, motivând necesitatea urgentă de studii asupra interacțiunii om-computer și de procese clinice prospective pentru a evalua riguros potențialul sistemelor AI de a îmbunătăți practica clinică și rezultatele pentru pacienți,” a declarat Peter Brodeur, PhD, de la Centrul Medical Beth Israel Deaconess din Boston, împreună cu colegii săi.

LLMs sunt algoritmi AI instruiți cu o cantitate imensă de date pentru a învăța modele care le permit să genereze răspunsuri asemănătoare celor umane. Modelele de raționament, precum seria Open AI o1, sunt LLMs cu abilitatea adăugată de a procesa problemele pas cu pas înainte de a răspunde, într-un mod care reflectă gândirea structurată.

Echipa lui Brodeur a testat performanța diagnosticului modelului o1-preview în cinci experimente pentru a compara această performanță pe scenarii de cazuri clinice față de medici și modele anterioare.

Un al șaselea experiment a comparat acest LLM avansat cu modele anterioare și medici în trei puncte de diagnostic pe 76 de cazuri reale din departamentul de urgență.

În general, modelele o1 au depășit semnificativ LLMs din generația anterioară care nu foloseau raționament, cum ar fi GPT-4 și, în multe cazuri, au fost de asemenea mai bune decât medicii.

De exemplu, GPT-4 a atins o acuratețe diagnostic exactă sau foarte apropiată în 72.9% din cazuri când a fost furnizat cu cazuri clinicopatologice publicate, comparativ cu 88.6% pentru o1-preview.

În cazurile reale din departamentul de urgență, modelul o1 a avut o acuratețe diagnostic exactă sau foarte apropiată de 67.1% la triajul inițial, depășind astfel doi medici experți, pentru care acest lucru s-a întâmplat în 55.3%, respectiv 50.0%.

Recenzenții orbi nu au putut distinge răspunsurile AI de cele umane.

„Această avansare stabilește un nou standard de evaluare – testarea AI în comparație cu performanța medicilor, și ideal alături de medici, în sarcini clinice autentice,” au notat Ashley Hopkins, PhD, și Erik Cornelisse, student la doctorat, ambii de la Universitatea Flinders din Adelaide, Australia, într-un articol de comentariu însoțitor.

Cu toate acestea, ei au adăugat: „Acuratețea într-o sarcină definită este doar o dimensiune a pregătirii pentru implementare. AI-ul clinic trebuie să ofere de asemenea rezultate echitabile, rentabile și sigure,

Sursa: Inside Precision Medicine

Poll: Ce părere aveți despre utilizarea modelelor avansate de limbaj AI în diagnosticarea și gestionarea clinică?





Formular 230 Asociatia Science&Technology

Cât de util a fost acest articol pentru tine?

Dă click pe o steluță să votezi!

Medie 0 / 5. Câte voturi s-au strâns din 1 ianuarie 2024: 0

Nu sunt voturi până acum! Fii primul care își spune părerea.

Întrucât ai considerat acest articol folositor ...

Urmărește-ne pe Social Media!

Ne pare rău că acest articol nu a fost util pentru tine!

Ajută-ne să ne îmbunătățim!

Ne poți spune cum ne putem îmbunătăți?

Leave a Reply

Your email address will not be published. Required fields are marked *

  • Rating