Исследование: почти половина ответов ИИ-чатботов на вопросы о здоровье содержат ошибки

Исследование: почти половина ответов ИИ-чатботов на вопросы о здоровье содержат ошибки

Почти половина рекомендаций по здоровью от популярных ИИ-чатботов оказались неверными или вводящими в заблуждение. К такому выводу пришли исследователи из Калифорнийского университета в Лос-Анджелесе, Университета Альберты и Университета Уэйк Форест. Результаты их работы были опубликованы 14 апреля 2026 года в рецензируемом журнале BMJ Open.

В ходе аудита были проверены ответы пяти крупных ИИ-чатботов на медицинские запросы. Почти половина ответов была оценена как «довольно проблемные» или «весьма проблемные». Особенно часто ошибки встречались в вопросах, касающихся питания и спортивных результатов.

Худшие показатели продемонстрировал чатбот Grok — доля «весьма проблемных» ответов у него оказалась значительно выше статистически ожидаемой. Кроме того, ни один из протестированных чатботов не смог предоставить полностью корректный список источников, часто ссылаясь на несуществующие данные.

Исследователи отметили, что все ответы подавались с высокой степенью уверенности, что может вводить пользователей в заблуждение. Отсутствие точных ссылок и склонность к вымыслу делают такие рекомендации потенциально опасными для пациентов, которые полагаются на ИИ при принятии решений о здоровье.

Эксперты подчеркивают необходимость осторожного использования ИИ-чатботов в медицинской сфере и рекомендуют проверять полученную информацию у квалифицированных специалистов.