Доктор ИИ чат-бот скоро навестит вас

Американцы уже массово используют ИИ для поиска ответов на вопросы здоровья. Каждый шестой взрослый -и почти четверть взрослых младше 30ти лет – использует чат-бот для поиска совета по здоровью или медицинской информации хотя бы раз в месяц. Евангелисты ИИ надеются, что технология позволит пациентом получить более полное медицинское обоснование, чем простой поиск в Гугл. Профессиональные доктора предупреждают, что ответы ИИ бота создают у пациентов ложную иллюзию в полной достоверности полученной информации. Боты не «договаривают» нюансы, которые имеют ключевое значение. Даже евангелисты ИИ соглашаются, что ответы ИИ – это не повод не думать самостоятельно.

Susan Sheridan слышала про ChatGPT, но никогда ранее его не использовала. Ее первый запрос был немного странным: «опущение лица, лицевая боль и посещение стоматолога».

Она обратилась к ChatGPT из-за отчаяния. Правая сторона ее лица провисла, она с трудом разговаривала, а ее голова так сильно болела, что она не могла положить ее на подушку.

Днем ранее обвисание лица заметил ее муж. Семейная пара три часа ехала до приемной скорой помощи. Врач отправил ее домой после осмотра, заявив, что симптомы легкие, и ничего там серьезного.

ChatGPT с этим не согласился. Одно из объяснений ИИ сервиса: паралич Белла*. Требовалось срочное лечение, чтобы избежать тяжелых последствий

*Паралич Белла - неврит лицевого нерва. Патология затрагивает нерв, который иннервирует мимические мышцы половины лица, поэтому симптоматика заболевания чаще всего выражена также на половине лица. Из-за поражения нерва пациент испытывает мышечную слабость, частично или полностью теряет чувствительность, возникают трудности с мимическими движениями. Часто у больных развивается заметная асимметрия лица и проблемы с органами зрения — косоглазие, патологическое слезотечение или сухость глаз.

Susan снова поехала в отделение скорой помощи, где доктор подтвердил подозрения чат-бота, назначил ей стероиды и противовирусные препараты. В результате, она почти выздоровела.

Susan Sheridan, 64 года: «Я не хочу заменять врачей. Я верю в отношения между врачом и пациентом. И я верю в систему здравоохранения».

«Иногда что-то ломается. Когда система здравоохранения не срабатывает, то мы идем к ChatGPT».

Все больше пациентов, таких как Susan, обращаются к ИИ ботам, чтобы узнать причины новых симптомов, оценить варианты лечения и проверить назначение врачей.

Исследовательская НКО в области здравоохранения KFF: каждый шестой взрослый -и почти четверть взрослых младше 30ти лет – использует чат-бот для поиска совета по здоровью или информации хотя бы раз в месяц.

Юрист и блоггер: ИИ дает доступ к клиническим размышлениям

Евангелисты ИИ надеются, что технология позволит пациентом получить более полное медицинское обоснование, чем простой поиск в Гугл. Dave deBronkart, адвокат и блоггер: «Гугл дает доступ к информации. ИИ дает доступ к клиническим размышлениям».

Исследователи совсем мало знают о том, как пациенты используют генеративный ИИ для поиска ответа на медицинские вопросы. Исследования на эту тему в основном ведутся на основе гипотетических медицинских случаев.

Доктор Ateev Mehrotra, исследователь и профессор в Университете Brown, изучает, как пациенты используют чат-бот. Он считает, что нет информации, сколько людей уже использовали чат-бота для получения ответов на медицинские вопросы.

Ateev Mehrotra: «Мы всегда думали, что это что-то, что еще не наступило. Но люди используют эту технологию в больших масштабах. Я удивился результатам опроса KFF».

Доктор Benjamin Tolchin, биоэтик и невролог из Школы медицины Йеля: с тех пор как ChatGPT стал доступен широкой общественности в 2022 году, горстка пациентов каждый месяц рассказывает ему, что они использовали бота для проверки своих симптомов.

По большей части ИИ инструмент был полезен пациентам. Он информировал их о состоянии и доступном лечении. Однако доктор видит и недостатки бота.

Что не так с использование ИИ бота пациентами

Проблема не в том, что ИИ может выдать некорректную или ложную медицинскую информацию. Гугл также может это сделать. Ответы ИИ бота выглядят авторитетно. Доктор Benjamin Tolchin: это может дать пациентам ложную уверенность в истинности советов алгоритма.

«Ответы алгоритма могут казаться более правдоподобными и более полными, чем разрозненные строчки ответов Гугла».

Один из его пациентов, например, использовал алгоритм для поиска вариантов лечения приступов, которые не поддавались лечению. Среди советов бота была трансплантация стволовых клеток. Эту операцию пациенту еще не предлагали.

Доктор Benjamin Tolchin объяснил пациенту, что трансплантация стволовых клеток — это экспериментальное лечение, и невролог вряд ли посоветует ее пациенту. Об этом чат-бот не упомянул в своем совете.

ИИ бот не сообщает всех нюансов и создает иллюзию ложной уверенности в истине

Доктор Benjamin Tolchin: «Пациенты считают, что у них сложилась полная картину всех возможных способов лечения. Но это может вполне привести к ложной иллюзии».

В исследовании KFF менее 10% опрошенных заявили, что они могут с «полной уверенностью» отличить ложь и истину в информации, которую генерит ИИ алгоритм.

Dave deBronkart, адвокат и блоггер: как и любой инструмент для получения ответов на медицинские вопросы, ИИ бот необходимо правильно использовать. Вопросы должны быть тщательные, а ответы необходимо оценивать с долей скептицизма.

Пациенты должны думать сами

Dave deBronkart: «Это мощный инструмент, позволяющий вам узнать много нового. Но это неправильно, чтобы люди думали, что, получив мгновенные ответы чат-бота, им не нужно думать самим».

Ссылка на статью:

Начать дискуссию