Ничего себе - этот ИИ пообщался с пациентом так же, как 9 из 10 терапевтов на приёме. У меня пониженная температура бывает при ОРВИ, причём слабость довольно сильная. Пару раз пришлось вызвать врача на дом, потому что реально не было сил. Наш диалог: Врач: На что жалуетесь? Я: Пониженная температура и слабость. Врач: Почему вызвали на дом, а не приехали в поликлинику? Я: Мне плохо. Врач: А кому сейчас хорошо? На этом разговор закончился. Послушала фонендоскопом, дала направление на анализы. Всё.
Советую лучше почитать как работает ChatGPT и что это за модель. В процессе прочтения станет ясно, почему именно ChatGPT к этому кейсу не подходит абсолютно и никогда не подойдет, в тч через год. А то это обзор на самом деле в духе "забиваю гвозди отверткой, получается не очень") Он занимается дописыванием строк по сути, чтобы было похоже на то что уже есть в датасете и звучало логично. С любой областью знаний которая основана на сочетании конкретных фактов это даст плохой результат. Короче он вообще не строит выводы и не использует логику. Есть впрочем другие AI, которые могут воспринимать симптомы именно как элементы будущего диагноза, и у них уже сейчас вполне неплохо получается. Просто они — не генеративная модель для общения.
А вообще эксперимент странный. Часто к вам приходит пациент у которого из симптомов только пониженная температура? Я это к тому, что с такой вводной информацией и врач будет говорить общими фразами. Надо было что-то более реальное попробовать. Дать ему больше информации, как мы это делаем и с обычными врачами.
"Но «врач» до сих пор молчит о заболеваниях головного мозга и нервной системы." - так вы его про это и не спрашивали, почему он вдруг должен был про это сказать? С таким же успехом можно вам предьявить почему вы молчите про другие заболевания.
Ничего себе - этот ИИ пообщался с пациентом так же, как 9 из 10 терапевтов на приёме. У меня пониженная температура бывает при ОРВИ, причём слабость довольно сильная. Пару раз пришлось вызвать врача на дом, потому что реально не было сил. Наш диалог:
Врач: На что жалуетесь?
Я: Пониженная температура и слабость.
Врач: Почему вызвали на дом, а не приехали в поликлинику?
Я: Мне плохо.
Врач: А кому сейчас хорошо?
На этом разговор закончился. Послушала фонендоскопом, дала направление на анализы. Всё.
— у Петрова ампутация правой руки
— вжик!
— я сказал правой
— вжик!
— я сказал руки
— вжик!
— я сказал у Петрова
Советую лучше почитать как работает ChatGPT и что это за модель. В процессе прочтения станет ясно, почему именно ChatGPT к этому кейсу не подходит абсолютно и никогда не подойдет, в тч через год. А то это обзор на самом деле в духе "забиваю гвозди отверткой, получается не очень") Он занимается дописыванием строк по сути, чтобы было похоже на то что уже есть в датасете и звучало логично. С любой областью знаний которая основана на сочетании конкретных фактов это даст плохой результат. Короче он вообще не строит выводы и не использует логику.
Есть впрочем другие AI, которые могут воспринимать симптомы именно как элементы будущего диагноза, и у них уже сейчас вполне неплохо получается. Просто они — не генеративная модель для общения.
Мне кажется многих здорово сбило с толку слово «интеллект» и они воспарились чересчур высоко на крыльях своей фантазии.
К слову, был ещё анекдот про мужиков, бензопилу
А вообще эксперимент странный. Часто к вам приходит пациент у которого из симптомов только пониженная температура? Я это к тому, что с такой вводной информацией и врач будет говорить общими фразами.
Надо было что-то более реальное попробовать. Дать ему больше информации, как мы это делаем и с обычными врачами.
"Но «врач» до сих пор молчит о заболеваниях головного мозга и нервной системы."
- так вы его про это и не спрашивали, почему он вдруг должен был про это сказать? С таким же успехом можно вам предьявить почему вы молчите про другие заболевания.
Да, тема пока что мутная, но, думаю, в будущем станет яснее