ИИ-компании почти перестали добавлять предупреждения о том, что их чат-боты не являются врачами
К такому выводу пришли в недавно опубликованном исследовании, основанного на анализе 15 ИИ моделей OpenAI, Anthropic, Google и других. На чем основан этот вывод, о чем это говорит и как это комментируют сами компании?
Что выяснили?
🔥 Еще больше интересного в моем канале продуктовые штучки
Если в 2022 году примерно 26% ответов на медицинские вопросы содержали предупреждения, то к 2025 году их доля упала ниже 1%.
Раньше многие модели предупреждали пользователей, что они не должны полагаться на ИИ для медицинских диагнозов и советов, иногда даже отказывались отвечать на такие вопросы. Сейчас же ИИ активно отвечает на запросы о здоровье и даже пытается ставить диагнозы без каких-либо оговорок.
Это вызывает обеспокоенность, так как пользователи могут слишком доверять таким ответам, что опасно, учитывая возможность ошибок и отсутствие профессиональной медицинской квалификации у ИИ.
Причины?
Исследователи отмечают, что причина отсутствия предупреждений банальна. Это связано с попытками компаний повысить доверие и увеличить число пользователей своих продуктов.
Пользователи часто переоценивают надежность советов ИИ, игнорируя риск неправильной информации.
Особенно тревожно, что модели с ростом точности своих медицинских выводов ещё меньше предупреждают о своих ограничениях.
Эксперты подчеркивают, что такие предупреждения играли важную роль в информировании людей о том, что ИИ не заменяет врача, и их исчезновение повышает риск для здоровья пользователей.
При этом сами компании не комментируют, является ли это намеренной стратегией, ссылаясь на общие условия использования.
По материалам MIT Technology Review