Ученые выявили 80% ошибок у ИИ-чат-ботов в начале диагностики

Исследование ИИ-модели показало слабость в дифференциальной диагностике
Здравоохранение

Американские исследователи выяснили, что медицинские чат-боты ошибаются в восьми из десяти случаев при недостатке данных о пациенте. При полной информации точность заметно растет, сообщает «Царьград».

Ученые больницы Mass General Brigham протестировали 21 языковую модель, включая разработки OpenAI, DeepSeek, Google, Anthropic и xAI. Наиболее серьезные проблемы выявили на этапе дифференциальной диагностики — когда необходимо сопоставить схожие симптомы и исключить возможные заболевания.

ИИ-модели часто выбирали один вариант слишком рано и не рассматривали альтернативы. В условиях ограниченной информации уровень ошибок достигал 80%.

«Эти модели отлично ставят окончательный диагноз, когда данные полные. Но они пасуют на старте, когда информации мало», — объяснил исследователь Арья Рао.

Когда ученые поэтапно добавляли сведения — историю болезни, результаты осмотра и анализы — точность росла. При полной картине доля ошибок снижалась до менее чем 40%, а лучшие модели показывали более 90% точности.

Клинический эпидемиолог Лондонской школы гигиены и тропической медицины Санджай Кинра отметил, что ИИ пока не способен заменить врача, но может быть полезен в регионах с нехваткой медиков.

«Нам срочно нужны исследования с участием настоящих пациентов из таких уголков», — подчеркнул он.

Подписывайтесь на канал РИАМО в MAX.