Большие языковые модели: новая глава в цифровом здравоохранении

После запуска GPT-3.5 в ноябре 2022 года база пользователей ChatGPT достигла одного миллиона всего за 5 дней; сейчас их количество достигло около 180 миллионов. Огромный глобальный интерес к большим языковым моделям (LLM) — инструментам, лежащим в основе ChatGPT, — подпитывается их огромным потенциалом. LLM использовались для достижения различных целей во многих областях в 2023 году, но как они повлияют на здоровье пациентов в 2024 году?

Большие языковые модели: новая глава в цифровом здравоохранении

Есть несколько областей здравоохранения, где LLM уже доказали свою ценность.

Одно из самых интересных решений Med-PaLM - LLM, предназначенная для предоставления высококачественных и точных ответов на медицинские вопросы.

Med-PaLM показал точность 67% при ответах на MedQA, наборе данных, состоящих из вопросов в стиле экзамена по медицинскому лицензированию в США, что на 17 % выше, чем точность, достигнутая предыдущим инструментом искусственного интеллекта (ИИ). Более того, Med-PaLM демонстрирует многообещающие возможности понимания, извлечения знаний и рассуждения о медицинских проблемах, хотя он все еще уступает клиницистам.

LLM также может помочь в обучении пациентов и их семей. Например, чат-боты LLM дают комплексные ответы на проблемы со здоровьем, связанные с близорукостью. Точные ответы на медицинские вопросы со стороны LLM могут повлиять на здоровье пациентов, поскольку они должны быстро предоставить актуальную информацию, при этом постоянно повышая её качество.

Некоторые ограничения LLM еще предстоит устранить.

Есть затруднения при создании клинических случаев, когда GPT-4 не может точно отразить демографическое разнообразие заболеваний, часто создавая стереотипные представления. Кроме того, при проведении дифференциальной диагностики и формировании планов лечения ряда заболеваний GPT-4 показал связь между некоторыми демографическими особенностями и более дорогими процедурами, что подчеркивает риск систематической ошибки LLM.

LLM также могут генерировать неправильный или бессмысленный контент - явление, называемое галлюцинациями (или конфабуляциями), что означает, что они могут предлагать неправильные или небезопасные медицинские советы, что особенно опасно для людей с ограниченными знаниями или неспособностью различать точность и достоверность информации.

GPT-4 может дать большое количество разных ответов на один и тот же вопрос и не способен “знать”, какой из них лучший. В результате, пациент может получить смесь правильных и неверных рекомендаций, без понимания того, какому пути нужно следовать.

Зная недостатки текущего поколения LLM, в целях безопасности пациентов, созданный ею контент должен быть проверен медицинским работником.

LLM могут иметь большой эффект в автоматизации трудоемких трудоемких административных задач здравоохранения, которые представляют собой тяжелое бремя для медицинского персонала, препятствуя его сосредоточенности и способности оказывать качественную помощь пациентам. Например, с помощью ChatGPT можно автоматизировать сводные отчеты о результатах лечения и получать иную аналитическую информацию. Одним из решений использования LLM была интеграция с системой электронных медицинских карт США (EHR), что обеспечило персонализированные ответы пациентам и оптимизировало сводные отчеты об оказанных услугах.

Данные с открытым исходным кодом для LLM имеют основополагающее значение для поддержки более широкого внедрения программ LLM в здравоохранении. Это может способствовать прозрачности и достоверности использования больших языковых моделей. Однако пока это не является общепринятой практикой из-за особенности использования интеллектуальной собственности и конфиденциальности медицинских данных. Тем не менее, список открытых программ LLM доступен для различных областей, включая здравоохранение, что способствует исследованию и сравнению производительности моделей, развивая сотрудничество между IT и медицинскими компаниями.

В совокупности LLM, вероятно, повлияют на здоровье пациентов в 2024 году, предоставляя точные ответы на медицинские вопросы, помогая в диагностике и планировании лечения, а также автоматизируя административные задачи здравоохранения среди других приложений.

В 2024 году будут проведены более масштабные и верифицированные извне исследования с использованием новых решений LLM для широкого медицинского применения. Будет уделено особое внимание инклюзивности различных групп населения, с устранением потенциальных ограничений и предвзятости, связанных с LLM.

Повышение доступности кода и данных с открытым исходным кодом, проведение совместных исследований, обеспечение конфиденциальности данных и защиты конфиденциальной информации являются важными факторами для надлежащего использования программ LLM в здравоохранении.

UPD:

Основатель и генеральный директор OpenAI, создавшей одну из самых продвинутых нейросетей — ChatGPT, Сэм Альтман сообщил сенсационную новость:

  • Следующее поколение LLM - GPT-5 появится так скоро, что нет смысла фокусироваться на попытках устранения текущих ограничений GPT-4, так как большинство из этих ограничений будут частично или полностью устранены в GPT-5
  • Ключевыми прорывами GPT-5 будут мультимодальность, гораздо более продвинутая способность рассуждать и надежность (GPT-5 даст один – лучший ответ)

Если вы хотите обсудить использование LLM в вашей клинике — напишите мне в личку или оставьте комментарий.

1
2 комментария
Комментарий удалён модератором

Если мы говорим вообще, без привязки к странам и конкретным моделям, то основная проблема заключаются в непонимании демографических, социальных, страновых особенностей. Текущие LLM учатся на относительно ограниченном наборе данных, часто не соответствующих реальному социуму.
Вторая, не менее важная проблема в создании очень большого объема контента с потенциальной возможностью замены сгенерированными галлюцинациями (истинными или искусственно созданными) реальных данных.
Третья - т.к. использование LLM в странах с качественной оцифрованной медициной более эффективно, нежели в других частях мира, это приведет к росту неравенства в доступности медицинской помощи.

Ответить
Комментарий удалён модератором

LLM работает с разной степенью эффективности в разных демографических и социальных группах. Отчасти я это указал в статье. И пример из большого исследования, когда более социально успешной группе населения LLM предлагала более дорогостоящее лечение )

Ответить