{"id":14279,"url":"\/distributions\/14279\/click?bit=1&hash=4408d97a995353c62a7353088166cda4ded361bf29df096e086ea0bbb9c1b2fc","title":"\u0427\u0442\u043e \u0432\u044b\u0431\u0435\u0440\u0435\u0442\u0435: \u0432\u044b\u0435\u0445\u0430\u0442\u044c \u043f\u043e\u0437\u0436\u0435 \u0438\u043b\u0438 \u0437\u0430\u0435\u0445\u0430\u0442\u044c \u0440\u0430\u043d\u044c\u0448\u0435?","buttonText":"","imageUuid":""}

Этические проблемы применения искусственного интеллекта в медицине

Технологии машинного обучения уже давно и успешно применяются в самых разных сферах нашей жизни. Системы искусственного интеллекта ранжируют новостные ленты в соцсетях, прогнозируют погоду и даже управляют транспортными средствами. Эти и другие задачи они зачастую решают наравне с человеком или даже лучше него.

Медицину прогресс тоже не обошёл стороной. Уже сегодня существуют сервисы на базе технологий ИИ, которые способны решать различные медицинские задачи — от прогноза возникновения заболеваний до назначения лечения. К примеру, ИИ-сервис Цельс, разработанный нашей компанией, анализирует цифровые медицинские снимки и выявляет на них признаки различных патологий, в том числе онкологии на ранних стадиях.

Но несмотря на всю перспективность использования технологий ИИ в здравоохранении, их внедрение в реальную клиническую практику происходит очень медленно и осторожно. И это связано с тем, что медицина всегда была и остаётся крайне ответственной и консервативной отраслью, где цена ошибки слишком высока. Кроме того, применение искусственного интеллекта в медицине поднимает целый ряд новых этических вопросов, на которые человечеству только предстоит ответить.

Этическая проблема #1: Ошибки и ответственность

Ошибки совершают все люди без исключения. Неудивительно, что созданный людьми искусственный интеллект тоже иногда их совершает. И если с врачебной ошибкой всё более или менее ясно — ответственность за неё всегда несёт тот, кто принял решение, — то с искусственным интеллектом зона ответственности всё ещё выглядит довольно размыто.

Представим такую ситуацию: врач в своей работе использовал систему искусственного интеллекта и не заметил неточность в сделанных ею выводах (а может, и вовсе не проверял их). В итоге произошла ошибка, которая имела негативные последствия для здоровья пациента — например, несвоевременно или неверно был поставлен диагноз. Кто в таком случае несёт ответственность? Разработчик системы? Или врач, который слепо доверился её выводам?

Термин «система поддержки принятия врачебных решений» (СППВР) неслучайно начал в последнее время широко использоваться экспертами, врачами и самими разработчиками. Само это определение подчёркивает, что искусственный интеллект — это дополнение к врачу, а не его замена. Конечное решение всегда должен принимать человек.

Этическая проблема #2: Интерпретируемость результатов и предвзятость

Как сказал однажды наш разработчик, «умом нейронку не понять, AUCом общим не измерить». Это высказывание тогда относилось к оценке качества нейронных сетей. Но к теме плохой интерпретируемости результатов это тоже подходит как нельзя лучше. Что же мы под этим подразумеваем?

Человек, как правило, может легко объяснить другому человеку ход своих мыслей, которые привели его к тому или иному заключению. С искусственным интеллектом всё несколько иначе: он способен обрабатывать такие объёмы данных, какие и не снились человеческому мозгу. А значит, человек не сможет в полной мере понять «логику» искусственного интеллекта, согласно которой он принимает решения.

Связанная с этим проблема — так называемая предвзятость искусственного интеллекта. Её суть заключается в том, что машинное обучение постоянно ищет закономерности в данных, но не всегда находит верные паттерны, поскольку не видит общей картины.

Придём пример. Искусственный интеллект обучается определять рак кожи по фотографии и для этого анализирует огромное количество снимков с подтверждёнными случаями заболевания и с его отсутствием. При тестировании система чаще обнаруживает «признаки» заболевания именно на тех фото, которые были сделаны во врачебном кабинете. Это связано с тем, что среди снимков, участвовавших в её обучении, именно на таких фото рак кожи присутствовал чаще всего — поскольку болезнь чаще всего была диагностирована после того, как пациент обращался к врачу. Но искусственный интеллект не может этого понять, и для него фон, на котором сделан снимок, тоже может служить триггером (и не всегда правильным). Грубо говоря, ему может казаться, что врачебный кабинет — это признак рака кожи.

Впрочем, проблема предвзятости свойственна не только машинному обучению, но и всем сложным структурам. И для её решения разработчикам необходимо создавать комплексные инструменты проверки, находя неверные паттерны в «логике» искусственного интеллекта. А пользователи искусственного интеллекта, опять же, не должны слепо доверять его решениям.

Этическая проблема #3: Человеческое общение

Потенциал искусственного интеллекта велик, но заменить живое человеческое общение технологии не могут. Систему нельзя обучить состраданию и искренней моральной поддержке. А ведь доверительные отношения врача и пациента были и всегда будут залогом наилучшего результата лечения.

Общение врача с пациентами и его родственниками имеет такое большое значение, что первые этические проблемы, связанные с применением технологий, возникли именно в этой сфере. В Калифорнии врач послал в палату к 78-летнему пациенту и его родственникам робота, чтобы посредством видеосвязи сообщить им о том, что пациент умрёт. Родственники были ошарашены не столько самой новостью (дедушка уже давно и тяжело болел), сколько формой подачи, которую выбрал врач.

Но человеческое общение важно не только в таких тяжёлых с этической точки зрения ситуациях. Часто оно помогает решить настоящие медицинские загадки и в результате сохранить жизнь и здоровье пациента. Ава Рейзис — педиатр, инфекционист и гепатолог со стажем более 60 лет — рассказала несколько историй из своей врачебной практики, которые служат отличной демонстрацией того, какую важную роль играет в медицине доверительное человеческое общение.

Среди них — история о 15-летней девушке, которая лежала в больнице с тяжёлым гепатитом, от которого там же чуть не скончалась. Девушку тщательно обследовали, но так и не смогли выяснить причину возникновения заболевания. На консультации Ава Рейзис подробно расспрашивала пациентку и её маму о том, не принимала ли девушка какие-либо лекарства до того, как заболела. Врач перебрала все возможные варианты, от лечебных препаратов до травок для похудения, но девушка и её мама неизменно качали головой: нет, ничем не болела, никаких лекарств не принимала.

Уже потом, при доверительной беседе наедине с девушкой Ава выяснила, что у неё есть бойфренд и что для предохранения она использует оральные контрацептивы. А девушке просто-напросто не приходило в голову, что это тоже лекарство. Лишь тогда все пазлы в картине болезни сложились, поскольку причина развития заболевания была найдена — и это позволило врачам помочь пациентке и не допустить тяжёлых осложнений в будущем.

Этические проблемы неразрешимы?

Мы убеждены, что в результате общественных дискуссий, совместных усилий исследователей, разработчиков и врачей острые углы в вопросах этики использования медицинского ИИ будут сглажены. В результате будут очерчены чёткие этические рамки, в которых искусственный интеллект будет применяться в медицине, помогая врачам повысить эффективность и результативность своей работы. Очевидно, что в будущем роль врача как куратора, психолога и просто Человека не только не потеряет свою актуальность, но и будет становиться ещё более важной.

Список этических проблем не исчерпывается перечисленными. Я неслучайно оставляю «за бортом» один из главных аспектов — конфиденциальность персональных медицинских данных, которые используются для обучения и улучшения моделей искусственного интеллекта. Но об этом – в отдельной статье!

0
Комментарии

Комментарий удален модератором

Развернуть ветку
-3 комментариев
Раскрывать всегда