Советую лучше почитать как работает ChatGPT и что это за модель. В процессе прочтения станет ясно, почему именно ChatGPT к этому кейсу не подходит абсолютно и никогда не подойдет, в тч через год. А то это обзор на самом деле в духе "забиваю гвозди отверткой, получается не очень") Он занимается дописыванием строк по сути, чтобы было похоже на то что уже есть в датасете и звучало логично. С любой областью знаний которая основана на сочетании конкретных фактов это даст плохой результат. Короче он вообще не строит выводы и не использует логику. Есть впрочем другие AI, которые могут воспринимать симптомы именно как элементы будущего диагноза, и у них уже сейчас вполне неплохо получается. Просто они — не генеративная модель для общения.
Советую лучше почитать как работает ChatGPT и что это за модель. В процессе прочтения станет ясно, почему именно ChatGPT к этому кейсу не подходит абсолютно и никогда не подойдет, в тч через год. А то это обзор на самом деле в духе "забиваю гвозди отверткой, получается не очень") Он занимается дописыванием строк по сути, чтобы было похоже на то что уже есть в датасете и звучало логично. С любой областью знаний которая основана на сочетании конкретных фактов это даст плохой результат. Короче он вообще не строит выводы и не использует логику.
Есть впрочем другие AI, которые могут воспринимать симптомы именно как элементы будущего диагноза, и у них уже сейчас вполне неплохо получается. Просто они — не генеративная модель для общения.
Мне кажется многих здорово сбило с толку слово «интеллект» и они воспарились чересчур высоко на крыльях своей фантазии.
К слову, был ещё анекдот про мужиков, бензопилу