ИИ в медицинском образовании
Больше всего этических вопросов связано с применением ИИ в образовании и медицине (и военной промышленности, но её сегодня трогать не будем). А что насчёт ИИ в медицинском образовании? Нашла как раз про это статью, свеженькую, прошлого года: «Artificial intelligence in medical education: Typologies and ethical approaches» («Искусственный интеллект в медицинском образовании: типология и этические подходы»). Пошли смотреть, что там.
Что там
С типологией всё сложно. Единых определений нет, никаких общепринятых классификаций нет, ничего нет, воды нет, растительности нет, населена роботами.
Авторы это признают и подходят к вопросу с разных сторон: со стороны технологического развития, со стороны направленности интеллекта и с этической стороны.
Первая типология выделяет узкий, общий и сильный ИИ (или искусственный суперинтеллект). Узкий есть сейчас, и с этим в основном все согласны: ИИ решает конкретные задачи, делает это хорошо, но требует обучения для работы с новыми областями. Дальше всё покрыто туманом и лежит в области скорее фантастики, чем науки. Термины «общий» и «сильный» ИИ иногда используются как синонимы, иногда применяются для описания ИИ, равного человеческому и превосходящего человеческий, соответственно.
Вторая типология отталкивается от способностей человеческого мозга и выделяет пять типов интеллекта:
· Логико-математический;
· Социальный;
· Визуально-пространственный;
· Вербально-лингвистический;
· Интеллект, связанный со скоростью обработки данных (processing-speed intelligence: определяется временем, которое проходит между получением информации и ответом на неё).
Она происходит из Теории множественного интеллекта Говарда Гарднера (Theory of multiple intelligences, Howard Gardner), которую он предложил в книге «Frames of Mind: The Theory of Multiple Intelligences» («Структура разума. Теория множественного интеллекта») в 1983 году. Там он предлагает шесть типов интеллекта, которые не связаны между собой:
· Лингвистический;
· Музыкальный;
· Логико-математический;
· Пространственный;
· Телесный;
· Личностный.
Теория оказалась полезной, хотя и встретила немало критики: в частности, далеко не все согласны с тем, что разные типы интеллекта слабо взаимосвязаны. Да и времени с момента написания книги прошло немало, теория менялась и дополнялась. В число интеллектов вошёл натуралистический интеллект, связанный с интересом к окружающей природе, а личностный интеллект стал рассматриваться как два отдельных: внутриличностный и межличностный. В 1999 году Гарднер выпустил новую книгу – «Intelligence Reframed» («Переосмысленный интеллект»). И вообще он жив, в свои 82 продолжает работать, хотя и вышел официально на пенсию, и у него есть свой сайт.
Перейдём же теперь к области, в которой… тоже ничего непонятно – к области этики. Здесь авторы статьи, с которой мы начали сегодняшний разговор, рассматривают объяснимый (explainable) ИИ, интерпретируемый (interpretable) ИИ и ИИ, заслуживающий доверия (trustworthy). Понятия интерпретируемого и объяснимого ИИ плотно склеены, и не все их разделяют – мы это обсуждали в одном из постов. «Заслуживающий доверия» ИИ меня, если честно ставит в тупик: авторы рассматривают его как компонент триады «объяснимый – интерпретируемый – заслуживающий доверия», но, на мой взгляд, это не понятия одного уровня. На мой взгляд, объяснимость и интерпретируемость – это необходимые, но недостаточные условия для доверия наряду с подконтрольностью, беспристрастностью, законопослушностью и так далее. Но сегодня мы обсуждаем не моё мнение, а мнение авторов статьи, так что примем их подход.
Полагаю, они так сосредоточены именно на перечисленных трёх аспектах, потому что эти аспекты важнее всего в медицине: врачи используют ИИ для диагностики и должны понимать, как он работает, а пациенты должны быть уверены, что врач не просто забил их анализы в ChatGPT, а знает, что делает, и может это объяснить.
В образовании свои особенности: образовательные системы меняются медленнее, чем развиваются технологии – и это совсем не всегда плохо. Плохо может быть, когда технология уже есть, а понимания того, как обеспечить безопасность и равный к ней доступ ещё нет – это как раз наш случай. Дети быстрее учатся управляться с новыми штучками, потому что у них больше времени, гибче мозг, а любопытство перевешивает чувство самосохранения. Сохранение обеспечивают взрослые, и это очень сложно, если они не успевают разобраться с новыми штучками сами. А они не успевают, потому что помимо новых штучек у них ещё вагон и маленькая тележка старых, сами понимаете.
И вот встречаются ИИ в медицине и ИИ в образовании, как воды Тихого и Атлантического океанов.
Картинка из статьи про причину несмешения океанских вод – галоклин
И начинается.
На удивление, работ, посвящённых именно вопросам этики в медицинском образовании, немного, хотя ИИ применяется на практике вот уже сейчас и вопросов в связи с этим много:
· Как хранятся и используются данные пациентов в процессе обучения и использования ИИ?
· Как обеспечивается равномерная представленность в обучающих данных разных групп пациентов (по полу, возрасту, сопутствующим заболеваниям, этничности и другим факторам)?
· А если заболевание редкое и данных по нему в принципе мало?
· Знают ли пациенты, что их врачи используют ИИ?
· Насколько врачи полагаются на ИИ при принятии решений?
· Как отслеживается точность постановки диагноза, адекватность лечения и вообще последствия того, что врач положился или не положился на ИИ-инструмент?
· Какие меры безопасности применяются, чтобы предотвратить утечки данных или злонамеренное вмешательство в процесс принятия решений?
Ну и так далее. И будущих врачей надо бы обучать всему этому.
Разумеется, ИИ может принести в медицину немало пользы. Например, технологии виртуальной реальности и цифровые двойники – это высокоточные модели физических объектов, которые повторяют свойства и поведение оригинала – могут здорово помочь в изучении физиологии человека, в том числе каких-нибудь редких состояний, которые сложно показать студентам вживую.
Я уж не буду говорить про то, что генеративный ИИ может помочь разобраться в теме и всё такое: были уже отдельные посты, посвящённые этой теме.
Но это при условии, что
· у образовательных организаций достаточно ресурсов на закупку и поддержание новых устройств, а также на обучение преподавателей;
· ИИ используется правильно – а для этого тоже надо сначала обучить преподавателей тому, что такое «правильно», чтобы они уже могли учить студентов.
Вы меня поняли: с одной стороны чёрное, с другой белое, с третьей фиолетовое в крапинку, как обычно.
Заключение
Авторы заключают, что надо бы поднапрячься и как следует изучить вопросы человекоцентричного применения ИИ в медицинском образовании, и с ними сложно не согласиться. Конкретных ответов они не дают, но задают хорошие вопросы, и это хорошо, потому что наука всегда начинается с вопросов, так что давайте продолжим их задавать.
P.S.: Если надо ещё вопросов, заходите ко мне в телеграм, их там на всех хватит.