ChatGPT точно продиагностировал хроническую боль ребенка после того, как 17 врачей потерпели неудачу

ChatGPT точно продиагностировал хроническую боль ребенка после того, как 17 врачей потерпели неудачу

Мать три года боролась за то, чтобы получить диагноз хронической боли своего сына. Затем ChatGPT, как сообщается, предоставил правильный диагноз. При этом, важно отметить, что в данный момент это скорее всего совпадение. Ведь нейросеть может дать как идеальный результат, так и полностью не правдивый.

По словам матери, в течение трех лет она посетила 17 специалистов, все из которых искали возможную причину заболеваний мальчика в своих областях знаний. Но ни один врач или врач не смог бы облегчить хроническую боль ее сына, сказала мать, которая хочет остаться анонимной.

Затем она ввела все симптомы своего сына и данные МРТ в ChatGPT (ChatGPT и другими нейросетями вы можете пользоваться через наш сервис от KolerskyAi). Система искусственного интеллекта OpenAI «предположила» диагноз, который медицинские работники ранее не ставили: синдром привязанного шнура (Occult Tethered Cord Syndrome).

Это состояние, при котором спинной мозг привязан к оболочкам или окружающим тканям. Полученное в следствии этого натяжение нервных волокон может вызвать головные боли и другие симптомы. Нейрохирург подтвердил диагноз и провел операцию мальчику, который на данный момент продолжает лечение.

А теперь к сути

Выявления заболеваний на основе результатов анализа крови

Ветеринарная клиника не смогла поставить диагноз, но второй диагноз из другой клиники подтвердил диагноз GPT-4

Чат-боты с искусственным интеллектом помогают с диагностикой

Такие анекдоты, как указаны выше, иллюстрируют потенциал крупных языковых моделей для ответа на медицинские вопросы экспертного уровня, что уже было продемонстрировано в исследованиях. GPT-4 находится на переднем крае этой области. С помощью Med-PaLM Google стремится коммерциализировать область специализированных языковых моделей для медицины.

Изображение по запросу "medical Ai bot", созданное в сервисе KolerskyAi с нейросетью <a href="https://api.vc.ru/v2.8/redirect?to=http%3A%2F%2Ft.me%2FKolersky_Midjorney_Bot&postId=837467" rel="nofollow noreferrer noopener" target="_blank">Midjourney</a>
Изображение по запросу "medical Ai bot", созданное в сервисе KolerskyAi с нейросетью Midjourney

По сравнению с традиционным поиском в Интернете, LLM имеют потенциально более широкий опыт и большую фокусировку на конкретной проблеме. Исследования работают быстрее. Тем не менее, существует риск галлюцинаций, т. е. неправильных ответов, которые могут иметь особенно серьезные последствия для здоровья.

Но, как показывает пример выше, люди совершают ошибки. Обсуждение использования медицинских чат-ботов может быть похоже на обсуждение о беспилотных автомобилях: достаточно ли систем, работающих на уровне человека или немного выше, или они должны быть безупречными? Кто будет нести ответственность, если произойдет ошибка?

ps. Комментируйте, пожалуйста! Это помогает продвижению статьи.

Ну и как положено, канал тг))) Канал и чатик

Там в закрепленном боты для доступа в Chat GPT и Midjourney без VPN

11
1 комментарий

В итоге-то диагноз все равно утверждал врач. Это значит, что врачи перебирали массу вариантов исходя из своей логики и практики. А чатгпт просто рандомом пальцем в небо попал

Ответить