Вступление с юмором: если вы собираетесь лечиться у чатбота, не забудьте поблагодарить автозаполнение и взять номер ближайшей клиники «на случай внезапного здравого смысла». Эта фраза, конечно, шутливая, но в свете нового исследования Оксфорда и партнёров (MLCommons и др.) звучит куда серьезнее — чатботы, умеющие красиво рассуждать о болезнях, ещё не научились надёжно спасать людей (подробности в отчёте в Nature Medicine: https://www.nature.com/articles/s41591-025-04074-y).

Авторы провели эксперимент с почти 1,300 участников и десятью клиническими сценариями: одна группа пользовалась LLM (GPT-4o, Llama 3, Command R+), другая — обычным поиском или собственной интуицией. Итог неутешителен: комбинация человека и модели оказалась не лучше контроля, а по распознаванию релевантных состояний даже уступала. В репертуаре ошибок — смешение страновых экстренных номеров, противоречивые рекомендации для схожих симптомов и очаровательная склонность выдавать убедительные, но неверные инструкции.

Что здесь важно понять: успешность на медицинских экзаменах ≠ умение вести диалог с живым человеком, переживающим боль. Доктора тренируются на протоколах, опыте и осторожности; модели учатся на текстах и экзаменах. Любая модель может звучать убедительно, но именно изящность формулировки не спасёт при субарахноидальном кровоизлиянии.

Вывод для практики — тривиален и важен. Используйте чатботы как справочник, для быстрой информации и подготовки вопросов врачу, но не как единственный источник решений, когда речь о вашем здоровье. Разработчикам же придётся думать не только о «экспертных знаниях», но и о контроле, валидации и умении балансировать между утешением пользователя и ответственностью перед системой здравоохранения.