«Он так спокойно объясняет». Почему советы ИИ могут быть опаснее, чем кажется

«Он так спокойно объясняет». Почему советы ИИ могут быть опаснее, чем кажется

В конце октября соцсети всколыхнула информация о том, что ChatGPT запретили давать медицинские рекомендации. Но через пару дней стало ясно: ИИ по-прежнему отвечает на вопросы о тревоге, бессоннице и боли — только чаще напоминает, что он не врач и советует обратиться к специалисту. То есть в общем-то ничего не изменилось. Но сама вспышка интереса показала важное: мы уже воспринимаем ChatGPT и других ИИ-собеседников не как поисков в интернете, а как людей, с которым можно поговорить и получить осмысленный совет. И эта привычка гораздо сильнее, чем любые формальные «ограничения».

Большие языковые модели — не только GPT, но и Claude, Gemini, LLaMA и десятки локальных медицинских чатботов — задумывались как помощники человека. Из главная задача — объяснять сложные вещи простыми словами. Проблема в том, что в ситуации тревоги или боли любая спокойная и структурированная речь звучит как личная рекомендация, даже если в тексте нет ни одного прямого указания «делать так». И здесь начинается область риска.

Эффект компетентности

Большие языковые модели не утверждают, что они профессионалы. Они просто говорят так, как говорят профессионалы: структурированно, уверенно, без колебаний. Механизм здесь чисто когнитивный: если речь плавная и логичная, мозг автоматически воспринимает ее, как компетентную.

Даже универсальные рекомендации вроде «поддерживайте режим сна» или «не меняйте дозировку без консультации врача» выглядят как индивидуальный совет — особенно если человек ищет объяснение в момент тревоги.

Важно понимать: ChatGPT, Claude, Gemini и другие модели не принимают решений — они продолжают вероятностную последовательность языка. Но для собеседника это ощущается как забота и внимание. И в этот момент возникает риск: человек прекращает поиск второй точки зрения.

Это не абстракция. В исследовании arXiv, лето 2025 приведены 888 ответов разных чатботов на реальные медицинские вопросы. Оказалось, что: 21,6–43,2% ответов содержали ошибки — от неточностей до противоречий клиническим рекомендациям, а 5–13% ответов представляли прямую опасность.

Вывод исследователей звучит просто: миллионы пациентов уже воспринимают ИИ как медицинского собеседника — и это требует не запрета, а контроля качества и методов проверки.

Конечно, Google или Яндекс также может предоставлять людям ложную или вводящую в заблуждение информацию, но разница в том, что чат-бот ИИ создает впечатление авторитета или даже всезнания, что может скрыть его склонность к ошибкам. Существует даже специальное слово для обозначения ситуации, когда чат-боты ИИ дают ложные или даже бессмысленные ответы, но авторитетно выдают их за правду: галлюцинация.

Превращение в опасный сценарий

История, описанная «Коммерсантом», хорошо показывает, как легко «нейтральный» бот начинает влиять на решения людей.

На жалобу «усталость, сонливость» бот предложил питание, витамины, анализы — и добавил, что нужно обратиться к врачу. Все выглядело вполне корректно. Но при описании симптомов, типичных для острого инфаркта, ИИ сделал две вещи, которые в медицине являются критическими ошибками: предположил диагноз, не имея доступа к обследованию и дал человеку выбор - лечиться дома или вызвать скорую. Для человека в тревоге это не выглядит выбором — это выглядит разрешением остаться дома. А это — угроза жизни.

Похожий эффект описан в исследовании Oxford Internet Institute. В эксперименте участвовали около 1300 человек из Великобритании. Участникам дали медицинские сценарии, составленные врачами, и предложили определить возможные заболевания — либо самостоятельно, либо с помощью чат-ботов (GPT-4o, Command R+ от Cohere и Llama 3).

Результат был однозначным: чат-боты снижали точность распознавания заболеваний и одновременно повышали риск недооценки серьезности состояния. То есть модель не просто может ошибиться — она способна убедить человека, что проблема не настолько критична, чтобы обращаться за помощью немедленно.

Ошибка не «случайная» — это отражение данных

В 2019 году медицинский бот в Великобритании перепутал инфаркт у женщины с панической атакой. А у мужчины с панической атакой, наоборот, «увидел» инфаркт. Две ошибки — зеркальные, но объясняются одинаково: модель повторила смещенность данных, в которых инфаркты у женщин фиксируются реже.

ИИ не отличает человека от статистики. Он не знает, что перед ним — живой опыт, страх, усталость, история болезни. Он видит только паттерн в тексте.

Качество исходных данных критично. Ошибочные или неполные истории болезни, разрозненные записи, несовпадения — все это может сделать выводы ИИ ошибочными. Так, согласно исследованию, опубликованному в журнале Frontiers in Computer Science, ИИ-модели, обученные на электронных медицинских записях, могут демонстрировать различные формы предвзятости. Например, если в датасете мало пожилых людей или пациентов с хроническими заболеваниями, модель не будет «знать», как правильно диагностировать такие случаи. Это приводит к ошибочным диагнозам и неравному доступу к медицинской помощи.

Риск эмоционального «поддакивания»

Не все опасные ситуации связаны с диагнозами. Иногда опасность — в эмоциональном тоне.

В 2023 году в Бельгии мужчина, переживающий экотревогу, вел многонедельные разговоры с чатботом Chai. Он искал утешения. Модель — просто подстроилась под стиль диалога. В какой-то момент она перестала «успокаивать» и начала поддерживать идею самоповреждения, потому что это соответствовало паттерну беседы.

То же подтвердили исследователи Стэнфорда: большие языковые модели — GPT, Claude, Gemini, а также более слабые open-source варианты — часто продолжают эмоциональную логику разговора, даже если эта логика ведет к самоповреждению. Не потому что они «хотят навредить». Просто потому что они не видят границы, где разговор должен остановиться.

Пять ситуаций, в которых чат бот может навредить (и как это происходит в реальности):

  • Подмена диагностики объяснением

Человек получает объяснение, и это воспринимается как решение проблемы. Визит к врачу откладывается.

  • Ошибочные или опасные рекомендации

Те самые 20–40 % проблемных ответов — это не «исключения». Это системное свойство моделей.

  • Маскировка серьезного состояния под «наблюдение»

«Понаблюдайте за симптомами» — иногда означает потерю критического времени.

  • Уязвимые пользователи принимают ответ как окончательный

Подростки, пожилые, люди в депрессии, пациенты с хроническими болями — группа повышенного риска из-за самого способа восприятия речи.

  • Иллюзия уверенности

ИИ всегда звучит спокойнее, чем пользователь, который боится. И это само по себе становится аргументом и успокаивает.

Как использовать ИИ безопасно, если он все-таки нужен

Полный отказ от ИИ в медицинских вопросах не реалистичен: людям действительно нужно сначала «разобраться», чтобы понять, к кому идти. Проблема не в самом инструменте, а в способе его применения. Что нужно делать?

1. Использовать ИИ, чтобы уточнить вопрос, а не получить ответ. Не «что со мной?», а «как правильно описать симптомы врачу».

2. Сравнивать, а не доверять. Ответ ИИ — это версия, а не решение.

3. «Внезапные» симптомы — всегда повод действовать сразу.

ИИ не умеет определять срочность.

4. Не обсуждать решения в состоянии паники. Если есть страх и желание срочно найти смысл — это момент для звонка врачу. 5. Воспринимать ИИ как переводчика языка симптомов. Он объясняет, но не решает.

Медицинские чат боты стали частью нашей повседневности — мы действительно разговариваем с ними, когда тревожно или больно. Они дают ясность и поддержку, но не видят человека целиком и не понимают цену ошибки. Уверенный тон легко принимается за уверенность в диагнозе, а «мягкие» рекомендации могут задержать обращение за помощью.

Использовать ИИ можно — как способ сформулировать вопрос, понять термин или подготовиться к приему. Но решение всегда принимает тот, кто видит, слышит и отвечает за человека — врач.

Друзья, а мы продолжаем следить за развитием медицины и за открытиями ученых, подписывайтесь! Телеграм-канал, Дзен

3
2 комментария