ChatGPT может заменить вашего врача — и на самом деле, он будет лучше заботиться о вас

Новое исследование показывает, что ChatGPT — более гуманный врач, чем врачи-люди. Никто не ожидает от чат-бота деликатных тонкостей. Посредственный текст, конечно, наряду с некоторыми выдуманными фактами и небольшим количеством случайного расизма.

ChatGPT может заменить вашего врача — и на самом деле, он будет лучше заботиться о вас

Но эти большие новые чат-боты , как мы знаем, также могут генерировать человеческие ответы на вопросы. И в недавнем тесте эта способность дала ботам удивительное превосходство в том, что должно быть одним из самых присущих человеку видов деятельности: работе врачом.

Чтобы провести тест, группа исследователей из Калифорнийского университета в Сан-Диего заглянула на форум Reddit, где зарегистрированные, проверенные, медицинские работники, отвечают на медицинские вопросы людей. Исследователи отобрали на форуме около 200 репрезентативных вопросов, от глупо звучащих («Проглотил зубочистку, подруга сказала, что умру») до ужасающих («Выкидыш через день после обычного УЗИ!»). Затем они загрузили вопросы в ChatGPT, а отдельная группа экспертов в области здравоохранения провела слепую оценку ответов как от ИИ, так и от докторов медицины.

Результаты были шокирующими. Во-первых, ChatGPT значительно опередил врачей-людей по полезности. Почти всегда ответы чат-ботов оценивались как в три-четыре раза более надежные, чем ответы бедных крошечных людей.

Но вот самая поразительная часть: ответы чат-ботов в среднем были оценены в семь раз более чуткими , чем ответы людей. Семь раз! Они предоставили именно то, что вы хотите от своего врача: заботу и эмоциональную связь.

Цель эксперимента с эмпатией заключалась не в том, чтобы показать, что ChatGPT может заменить врача или медсестру. Это должно было показать, что чат-бот может играть роль в оказании помощи. Коммерческая система здравоохранения США не нанимает достаточное количество врачей и медсестер, и она ожидает, что те, кого она нанимает, будут лечить все больше и больше пациентов, как на конвейере. Никому это не нравится, кроме тех, кто богатеет.

Светло зеленый, это ChatGPT, сори за фотку.
Светло зеленый, это ChatGPT, сори за фотку.

Вероятным сценарием является то, что высококвалифицированные чат-боты будут работать в тандеме с врачами, медсестрами и помощниками врачей, чтобы давать более чуткие и полные ответы людям, нуждающимся в уходе.

«Человек-клиницист, опирающийся на базу знаний и вычислительную мощность систем ИИ, будет только лучше», — говорит Джонатан Чен, врач из Медицинской школы Стэнфордского университета, изучающий системы ИИ.

Привлекательность ChatGPT, как бы то ни было, заключается в том, что это универсальное средство, получающее информацию из всего, что есть в Интернете. Но именно так проникают предубеждения и дезинформация. Дайте этим медицинским чат-ботам доступ к индивидуальным медицинским картам людей, и они смогут давать более точные советы. «Когда эта технология получает доступ к электронным медицинским записям, это действительно меняет правила игры», — говорит Айерс.

Это будет непросто, но точно принесет успех системе здравоохранения. Система здравоохранения США, к сожалению, не создана для того, чтобы обеспечить всех индивидуальными врачами, обеспечивающими уход. И пока это не изменится, было бы неплохо иметь роботов, которые могли бы помочь нам оставаться здоровыми. Если они могут одновременно имитировать заботу о нас — может быть, даже лучше, чем это делают человеческие врачи — что ж, это все равно будет приятно.

А если вам еще больше интересна тема ИИ, вы хотите знать больше и не пропускать новинки и обзоры, подпишитесь на канал в тг, мне будет приятно -

99
7 комментариев

Если в тандеме с опытными врачами, то супер. А так я бы не доверила своё здоровье одному ChatGPT. Взаимодействую с ним достаточно основательно по работе и вижу его глюки и подводные камни.

Ответить

С одной стороны, вы конечно правы - сложно доверять алгоритму видя его косяки.
С другой, вы конечно же не правы, т.к. вы доверяете другому "алгоритму" называя его "мнение профессионала", не замечая такие же очевидные, широко известные косяки.
Что забавно, также широко известно, что профессионалы даже зная о своих ошибочных склонностях, предвзятости мнения/необъективности, куче когнитивных искажений, продолжают игнорировать их существование и совершают раз за разом одни и те же ошибки (если они условно не "фатальны").

Ответить

Как то страшновато доверять свою жизнь и здоровье какой то нейросети

Ответить

Угораю с таких исследований. Вероятно аналогичные испытания проходят российские или беларуские лекарства или БАДы, которые выдают выборку из 10 испытуемых в клин.исследованиях за достаточную и адекватную. А тут вообще угар, то есть существуют какие-то продвигаторы БАДов, блогеры, недоученные студенты-медики, медицинские писатели (тоже термин понравился, когда копирайтер почитал первые три статьи в поиске про заболевание и считает себя эскулапом). И вот эта гопкомпания сидит на форуме или как в примере очередной реддит-помойке и консультирует страждущих, которым лень или жмёт кошелек оторвать жопу от дивана и сходить на консультацию к врачу. Получается занятный зверинец, который по итогу сравнили с чатГПТ, который по моим собраниям тестовых симптомов выдавал ржачные диагнозы, рекомендации по лечению или честно отправлял к доктору. Адекватную, на уровне человеческих ошибок, помощь по терапии пока научился давать ИИ от IBM , который доктор ватсон, но там видимо стоимость вычислений запредельная раз он до сих пор практической ипостаси не приобрёл. А это баловство и сравнения мне нравятся. Жду иска к разработчикам чатГПТ от родственников американского мытаря, который сплеит ласты после такой консультации и практического использования рекомендованного в лечении. Хотя юридически окажется, что чатГПТ ответственности по факту не несёт и обычная игрушка от Гейтса для подростков, что и вскроет открытое судебное заседание.

Ответить

Не пишите здесь такие вещи, люди же поверят и пойдут лечиться к нейросетям

Ответить

Нейросети уже могут «лечить» людей на порядок выше половины врачей из условного села Залупкино. Так что вполне себе даже вариант как минимум для сельских местностей и районов, где о кадрах как таковых и речи быть не может

Ответить

Наглядный вам пример: спросите у него, что такое пучок гиса, он ответит, что это это якобы структура в нервах позвоночника, а тот самый пучок гиса находится в сердце.
Делаем вывод, что он просто мудрит, и не знает что такое банальность а что такое реальность

Ответить