Цена ошибки. Какие риски принес искусственный интеллект в здравоохранение
Искусственный интеллект активно входит в медицинскую сферу и уже делает много хорошего: оценивает снимки, собирает анамнез и дает врачам подсказки при назначении лечения. Но быстрые изменения часто приводят к ошибкам. А поскольку в медицинской сфере цена ошибки — здоровье и даже жизнь человека, все громче звучат призывы общественности внимательней анализировать допущенные машинным разумом неточности и защищать от них людей.
По всему миру уже немало случаев утечки медицинских данных, снижения качества диагностики и фатальных ошибок из-за ИИ. Многие врачи и пациенты отказываются иметь с ним дело. Российская аудитория не так радикальна, хотя, по данным опросов, почти половина россиян не доверяет медицинскому ИИ. Власти проблему признают и пытаются принимать меры. На днях Росздравнадзор распорядился автоматизировать сбор данных об ошибках медицинского ИИ, чтобы лучше понять их причины. А Национальная ассоциация управленцев сферы здравоохранения предложила правительству регламентировать использование ИИ в медицине на уровне закона.
Объем российского рынка ИИ в здравоохранении по итогам прошлого года достиг 12 млрд рублей, а к 2030 году вырастет до 78 млрд рублей. Нейросети помогают ускорить и повысить точность диагностики, снижают бумажную нагрузку на врача, способствуют развитию предиктивных моделей, улучшают доступ к услугам здравоохранения в отдаленных регионах. Но у каждого достоинства, как известно, есть темная сторона. В случае с искусственным интеллектом это возникающие проблемы этики, безопасности и качества услуг, оказанных с его применением.
Ошибочка вышла
В мире регулярно происходят громкие негативные истории с медицинским ИИ в главной роли. Например, широко обсуждался случай, имевший место в Великобритании, когда чат-бот принял симптомы сердечного приступа у женщины за паническую атаку, а при тех же симптомах мужчине с реальной панической атакой он рекомендовал срочную госпитализацию.
Власти американского штата Иллинойс уже запретили психотерапевтам использовать сервисы ИИ для консультирования пациентов и постановки им диагноза. Штраф для нарушителей — $10 тыс.
А исследователи из американской клиники Маунт-Синай выяснили, что популярные чат-боты на основе искусственного интеллекта, такие как ChatGPT и DeepSeek R1, нередко генерируют убедительную, но ложную медицинскую информацию. Кстати, к такому же выводу пришли и их австралийские коллеги: они провели эксперимент, показавший, что популярные AI-модели способны без колебаний генерировать вымышленные, но научно звучащие медицинские ответы, и выдавать их за истину.
А исследование польских экспертов, опубликованное в журнале The Lancet Gastroenterology & Hepatology, показало, что регулярная помощь искусственного интеллекта при проведении колоноскопии снижает способность врачей-эндоскопистов обнаруживать предраковые новообразования без поддержки технологий. Без ИИ врачи выявляли рак на 6% хуже.
Отдельная проблема, актуальная для всех стран - утечка конфиденциальной медицинской информации из-за ИИ. Лидер по таким утечкам — США (на ее счету 55,8% утечек в мире). Россия на втором месте с результатом 8,1%, на третьем — Индия (4,1%). Причем в нашей стране темп таких утечек ускорился — год назад их было в два раза меньше.
Этика и закон
С этого года в России действует Кодекс этики использования ИИ в сфере охраны здоровья, но единый подход к регулированию использования медицинского ИИ в стране отсутствует. Тем не менее власти предпринимают шаги по регулированию этой сферы.
На днях стало известно, что Минздрав обновил требования к содержанию технической и эксплуатационной документации медицинских изделий. Теперь нужно указывать есть у программного обеспечения, которое относится к медизделиям, технологий ИИ. Кроме того, требуется описание работы этих технологий и нужны данные о наличии у ПО функции автоматической передачи данных о применении ИИ в Росздравнадзор. Кстати, именно это ведомство займется сбором данных о медицинских ошибках ИИ. Данные будут поступать в автоматизированную информационную систему.
Кроме того, Национальная ассоциация управленцев сферы здравоохранения предложила правительству разработать нормативный правовой акт, регламентирующии все особенности использования ИИ в здравоохранении. Ожидается, что будут решены и такие острые вопросы, как защита персональных данных и ответственность за врачебные ошибки при использовании ИИ. Для тех, кто участвует в разработке и эксплуатации систем ИИ, хотят ввести ответственность за причинение вреда жизни и здоровью людей.
Председатель совета директоров ГК «ДИАКОН», сопредседатель комитета по инновациям при Федерации лабораторной медицины Андрей Варивода в беседе с «МедТех Лабораторией» отметил, что цифровая трансформация российского здравоохранения активно набирает обороты.
«Современные медицинские учреждения применяют разнообразные IT-решения — от платформ телемедицины до сервисов дистанционного консилиума врачей и получения альтернативных экспертных заключений. Примером служит Москва, где уже успешно внедряются инновационные методы анализа радиологических изображений и налажена эффективная система распространения этих технологий в другие регионы страны», - говорит он. Тем не менее, внедрение цифровых инструментов, по его словам, сопряжено с рядом проблем. «Пока отсутствуют унифицированные стандарты функционирования мобильных медицинских приложений, а правовая база заметно отстаёт от быстрого прогресса современных технологий», - констатирует эксперт.
Верю — не верю
Пока уровень доверия россиян к медицинскому искусственному интеллекту (ИИ) оставляет желать лучшего. На днях аналитическая компания MAR CONSULT обнародовала соответствующее исследование. В опросе приняли участие 600 человек в возрасте 18–65 лет со всех федеральных округов страны. Исследование показало, что жители России проявляют интерес к новым технологиям, но желают взаимодействовать с врачом напрямую.
Большинство опрошенных признали ключевые преимущества медицинского ИИ: точность диагностики, сокращение времени на обработку информации, способность выявлять редкие патологии и оптимизация работы медперсонала, но высказали опасения из-за внедрения ИИ в медицинскую практику. Более половины респондентов (51%) сомневаются в способности ИИ учитывать индивидуальные особенности пациентов, 36% видят риски утечки персональных данных, 25% опасаются потери контроля над медицинскими процессами, а 13% боятся увеличения дистанции с врачом. Лишь 12% опрошенных заявили, что полностью уверены в надежности результатов, полученных с помощью искусственного интеллекта. А 18% высказались категорически против ИИ в медицине. Но большинство россиян (70%) относятся к ИИ с осторожностью, хотя и допускают его использование по мере совершенствования технологий.
Пока же у россиян мало доверия к ИИ-технологиям в медицине. Чтобы оно появилось, нужно повышать прозрачность работы машинных алгоритмов, защищать конфиденциальность пациентов и создавать четкую законодательную базу для использования таких технологий, уверены инициаторы опроса.
Друзья, а мы продолжаем следить за развитием медицины и за открытиями ученых, подписывайтесь! Телеграм-канал, Дзен