Ваш ИИ завист вводных данных. Он просто не знает что делать если обстановка меняется (например, синдром). В любой эпидемии симптомы которой будут на 90% схожи с другой болезнью. Практика ВОЗ показывает что на первых порах любая статистика просто не будет работать. А без точного критерия Фишера (гуглите что это)во многих странах нельзя выписать лекарства т.е. ИИ мгновенно превращается в такой себе Эксель. Ну это так для примера.Если вы откроете какой-нибудь Computers in Biology and Medicine и почитаете статьи по вопросу проблемы вы поймете о чем я
Я вообще не верю в медицинский ИИ в таком типе. И на это есть ряд причин.
Ошибки ИИ масштабируют проблемы пациентов. Лечение пациентов не инженерная задача. Если в банке неправильно распознанный документ, хоть и добавляет работы, всё же не особенно вредит организации, то в лечении все будет куда жестче. В Западных странах у компаний могут даже лицензии отобрать.
Кроме того ИИ работает во многом на основе линейных моделей и деревьев решений где есть конечное число вариантов, что исключает диагноз новых синдромных болезней.
Если ИИ обучался на неверных или неполных данных, любые отклонение от заданной нормы будут казаться ему неправильными. Это значит что любая даже доброкачественная индивидуальность организма может быть рассматриваться как болезнь.
Кроме того все модели, которые работают в изменяющейся среде, требуют актуализации и диагностики. Разработчик должен вовремя понять, что модель перестала быть релевантной и перенастроить её. И, конечно, если вы принимаете решения, основываясь на результатах работы сложных моделей, нужно учитывать их особенности и ограничения, особенно в ситуации стресса, когда модели могут не успевать подстраиваться и адаптироваться. Иначе модели могут вместо атипичного гриппа начать вам лечить печень.
Думаю после первого иска к компаниям хайп вокруг ИИ в медицине сразу пойдет вниз.
Это аферизм.
Ваш ИИ завист вводных данных. Он просто не знает что делать если обстановка меняется (например, синдром). В любой эпидемии симптомы которой будут на 90% схожи с другой болезнью. Практика ВОЗ показывает что на первых порах любая статистика просто не будет работать. А без точного критерия Фишера (гуглите что это)во многих странах нельзя выписать лекарства т.е. ИИ мгновенно превращается в такой себе Эксель. Ну это так для примера.Если вы откроете какой-нибудь Computers in Biology and Medicine и почитаете статьи по вопросу проблемы вы поймете о чем я
Я вообще не верю в медицинский ИИ в таком типе. И на это есть ряд причин.
Ошибки ИИ масштабируют проблемы пациентов. Лечение пациентов не инженерная задача. Если в банке неправильно распознанный документ, хоть и добавляет работы, всё же не особенно вредит организации, то в лечении все будет куда жестче. В Западных странах у компаний могут даже лицензии отобрать.
Кроме того ИИ работает во многом на основе линейных моделей и деревьев решений где есть конечное число вариантов, что исключает диагноз новых синдромных болезней.
Если ИИ обучался на неверных или неполных данных, любые отклонение от заданной нормы будут казаться ему неправильными. Это значит что любая даже доброкачественная индивидуальность организма может быть рассматриваться как болезнь.
Кроме того все модели, которые работают в изменяющейся среде, требуют актуализации и диагностики. Разработчик должен вовремя понять, что модель перестала быть релевантной и перенастроить её. И, конечно, если вы принимаете решения, основываясь на результатах работы сложных моделей, нужно учитывать их особенности и ограничения, особенно в ситуации стресса, когда модели могут не успевать подстраиваться и адаптироваться. Иначе модели могут вместо атипичного гриппа начать вам лечить печень.
Думаю после первого иска к компаниям хайп вокруг ИИ в медицине сразу пойдет вниз.