Чтобы провести тест, группа исследователей из Калифорнийского университета в Сан-Диего заглянула на форум Reddit, где зарегистрированные, проверенные, медицинские работники, отвечают на медицинские вопросы людей. Исследователи отобрали на форуме около 200 репрезентативных вопросов, от глупо звучащих («Проглотил зубочистку, подруга сказала, что умру») до ужасающих («Выкидыш через день после обычного УЗИ!»). Затем они загрузили вопросы в ChatGPT, а отдельная группа экспертов в области здравоохранения провела слепую оценку ответов как от ИИ, так и от докторов медицины.
Если в тандеме с опытными врачами, то супер. А так я бы не доверила своё здоровье одному ChatGPT. Взаимодействую с ним достаточно основательно по работе и вижу его глюки и подводные камни.
С одной стороны, вы конечно правы - сложно доверять алгоритму видя его косяки.
С другой, вы конечно же не правы, т.к. вы доверяете другому "алгоритму" называя его "мнение профессионала", не замечая такие же очевидные, широко известные косяки.
Что забавно, также широко известно, что профессионалы даже зная о своих ошибочных склонностях, предвзятости мнения/необъективности, куче когнитивных искажений, продолжают игнорировать их существование и совершают раз за разом одни и те же ошибки (если они условно не "фатальны").
Как то страшновато доверять свою жизнь и здоровье какой то нейросети
Угораю с таких исследований. Вероятно аналогичные испытания проходят российские или беларуские лекарства или БАДы, которые выдают выборку из 10 испытуемых в клин.исследованиях за достаточную и адекватную. А тут вообще угар, то есть существуют какие-то продвигаторы БАДов, блогеры, недоученные студенты-медики, медицинские писатели (тоже термин понравился, когда копирайтер почитал первые три статьи в поиске про заболевание и считает себя эскулапом). И вот эта гопкомпания сидит на форуме или как в примере очередной реддит-помойке и консультирует страждущих, которым лень или жмёт кошелек оторвать жопу от дивана и сходить на консультацию к врачу. Получается занятный зверинец, который по итогу сравнили с чатГПТ, который по моим собраниям тестовых симптомов выдавал ржачные диагнозы, рекомендации по лечению или честно отправлял к доктору. Адекватную, на уровне человеческих ошибок, помощь по терапии пока научился давать ИИ от IBM , который доктор ватсон, но там видимо стоимость вычислений запредельная раз он до сих пор практической ипостаси не приобрёл. А это баловство и сравнения мне нравятся. Жду иска к разработчикам чатГПТ от родственников американского мытаря, который сплеит ласты после такой консультации и практического использования рекомендованного в лечении. Хотя юридически окажется, что чатГПТ ответственности по факту не несёт и обычная игрушка от Гейтса для подростков, что и вскроет открытое судебное заседание.
Не пишите здесь такие вещи, люди же поверят и пойдут лечиться к нейросетям
Нейросети уже могут «лечить» людей на порядок выше половины врачей из условного села Залупкино. Так что вполне себе даже вариант как минимум для сельских местностей и районов, где о кадрах как таковых и речи быть не может
Наглядный вам пример: спросите у него, что такое пучок гиса, он ответит, что это это якобы структура в нервах позвоночника, а тот самый пучок гиса находится в сердце.
Делаем вывод, что он просто мудрит, и не знает что такое банальность а что такое реальность