14 aprilie 2026

Studiu: Chatboții prezintă rate ridicate de eroare în diagnosticare, când primesc informații incomplete

Cine: Mass General Brigham

u

Ce: Studiu erori diagnostic AI

Unde: Massachusetts, SUA

{

De ce: Riscuri diagnostic medical AI

Un studiu realizat de Mass General Brigham din Massachusetts, publicat recent în revista Jama Network Open, indică faptul că modelele lingvistice utilizate de populație ca asistenți medicali pot oferi diagnostice incorecte în peste 80% din cazurile în care informațiile furnizate sunt incomplete. Cercetarea a evaluat performanța a 21 de modele de inteligență artificială în gestionarea unor scenarii clinice complexe.

Analiza a demonstrat că precizia acestor instrumente tehnologice este direct dependentă de volumul și calitatea datelor introduse de utilizatori. Chiar și în scenariile în care modelele au avut acces la seturi complete de informații medicale, rata erorilor a depășit în anumite cazuri 40%, indicând limitări semnificative în procesul de luare a deciziilor clinice automatizate.

Ce ştim:

Cercetătorii au testat 21 de modele lingvistice dezvoltate de companii precum OpenAI, Anthropic, Google, xAI și DeepSeek, utilizând 29 de viniete clinice bazate pe texte medicale de referință. Chatboților li s-au pus la dispoziție informații structurate pas cu pas, incluzând rezultate ale consultațiilor și analize de laborator.

Conform datelor colectate, în situațiile cu date clinice incomplete, toate modelele testate au înregistrat o rată de diagnosticare greșită de peste 80%. În scenariile cu informații complete, performanța a variat, unii chatboți reușind să identifice diagnosticul corect pentru 90% dintre pacienți, în timp ce alții au rămas sub acest prag. Autorii studiului subliniază că, dincolo de lipsa datelor, modelele pot induce în eroare utilizatorii și prin fenomenul de „halucinație”, definit ca inventarea unor informații medicale care nu au o bază reală în datele furnizate.

Context:

Rezultatele studiului evidențiază riscurile utilizării inteligenței artificiale în asistența medicală fără supraveghere umană. Aceste concluzii sunt relevante pentru siguranța pacienților care apelează la tehnologie pentru interpretarea simptomelor sau a analizelor medicale.

Surse:

News.ro

Studiu: Chatboţii dau un diagnostic greşit în 80% din cazurile medicale iniţiale

Cotidianul RO

Diagnosticul prin AI, un risc: 80% rată de eșec

Stiripesurse

Chatboţii dau un diagnostic greşit în 80% din cazurile medicale iniţiale

Știrile ProTV

Studiu: Chatboţii dau un diagnostic greşit în 80% dintre cazurile medicale iniţiale. Ce au mai descoperit specialiştii

spotmedia.ro

Nu lua sfaturi medicale de la ChatGPT: Îți va pune un diagnostic greșit în 80% din cazuri