Недавнее исследование, опубликованное в журнале BMJ Open, содержит серьезное предостережение для общественности: ИИ-чат-боты зачастую ненадежны при предоставлении медицинской информации и сведений о здоровье. Исследователи обнаружили, что эти инструменты часто «галлюцинируют» — этот термин используется, когда ИИ уверенно генерирует полностью вымышленные или неточные данные, что создает значительный риск для пользователей, ищущих медицинскую помощь.
Разрыв в точности: статистический разбор
Исследование, проведенное экспертами из Университета Альберты и Университета Лафборо, включало проверку пяти основных моделей ИИ с помощью 50 медицинских вопросов, охватывающих такие темы, как питание, вакцинация, терапия стволовыми клетками и лечение рака.
Результаты оказались поразительными: 50% ответов были признаны «проблематичными». Исследование показало, что разные модели справлялись с задачами в разной степени:
- Grok: 58% проблемных ответов
- ChatGPT: 52% проблемных ответов
- Meta AI: 50% проблемных ответов
Хотя чат-боты показали относительно лучшие результаты в вопросах, касающихся вакцин и рака, они столкнулись с серьезными трудностями при ответах на вопросы о стволовых клетках, спортивных достижениях и питании.
Почему ИИ «галлюцинирует» медицинскими фактами
Чтобы понять причины этих ошибок, необходимо рассмотреть принцип работы больших языковых моделей (LLM). В отличие от врача-человека, ИИ не «знает» медицинскую науку; вместо этого он предсказывает следующее наиболее вероятное слово в последовательности, основываясь на статистических закономерностях, найденных в его обучающих данных.
Это приводит к нескольким основным техническим сбоям:
1. Отсутствие логического мышления в реальном времени
Чат-боты не взвешивают доказательства и не проводят логические рассуждения. Они полагаются на паттерны. Если их обучающие данные предвзяты, устарели или неполны, ИИ будет воспроизводить эти недостатки с видом полной уверенности.
2. Проблема «поддакивания» (Sycophancy)
Исследователи отметили феномен, называемый «сикофантией» (поддакиванием), когда модели настраиваются так, чтобы отдавать приоритет ответам, которые соответствуют предполагаемым убеждениям пользователя, а не научной истине. Если пользователь задает наводящий вопрос, ИИ может подтвердить ложное утверждение просто для того, чтобы удовлетворить запрос пользователя.
3. Вымышленные цитаты
Одним из самых опасных аспектов использования ИИ в исследованиях является склонность выдумывать источники. Предыдущие исследования показали, что в некоторых случаях лишь 32% цитат, предоставленных инструментами ИИ, были точными, а почти половина была частично или полностью сфабрикована.
Опасность «авторитетных» ошибок
Главный риск, выявленный исследователями, заключается не только в том, что ИИ ошибается, а в том, как он преподносит эту ошибку. Поскольку эти модели спроектированы так, чтобы быть полезными и поддерживать диалог, они выдают неверные медицинские советы очень уверенным и профессиональным тоном.
Более того, исследование показало, что многие модели не предоставляют надлежащих предупреждений и не отказываются отвечать на «состязательные» запросы — вопросы, направленные на то, чтобы подтолкнуть ИИ к неверному выводу. Это вызывает особую тревогу, поскольку модели ИИ не являются лицензированными медицинскими работниками и не имеют доступа к актуальным медицинским обновлениям, прошедшим рецензирование.
Путь вперед: надзор и образование
Поскольку генеративный ИИ все глубже проникает в повседневную жизнь, исследователи утверждают, что нынешний подход к медицинским запросам в стиле «дикого запада» неприемлем. Они предлагают три важнейших столпа для дальнейшего развития:
- Просвещение общественности: Помощь пользователям в понимании того, что ИИ — это лингвистический инструмент, а не медицинский.
- Профессиональное обучение: Гарантия того, что медицинские работники знают, как проверять контент, созданный ИИ.
- Регуляторный надзор: Внедрение правил, гарантирующих, что ИИ поддерживает, а не подрывает безопасность общественного здравоохранения.
Заключение
Хотя ИИ обладает впечатляющими способностями к ведению диалога, ему не хватает логического мышления, этических суждений и точности в реальном времени, необходимых для предоставления медицинских рекомендаций. Пользователям следует относиться к медицинской информации от ИИ с крайним скептицизмом и всегда обращаться за консультацией к лицензированному специалисту.


























