ИИ-компании почти перестали добавлять предупреждения о том, что их чат-боты не являются врачами

К такому выводу пришли в недавно опубликованном исследовании, основанного на анализе 15 ИИ моделей OpenAI, Anthropic, Google и других. На чем основан этот вывод, о чем это говорит и как это комментируют сами компании?

Что выяснили?

🔥 Еще больше интересного в моем канале продуктовые штучки

Если в 2022 году примерно 26% ответов на медицинские вопросы содержали предупреждения, то к 2025 году их доля упала ниже 1%.

Раньше многие модели предупреждали пользователей, что они не должны полагаться на ИИ для медицинских диагнозов и советов, иногда даже отказывались отвечать на такие вопросы. Сейчас же ИИ активно отвечает на запросы о здоровье и даже пытается ставить диагнозы без каких-либо оговорок.

Это вызывает обеспокоенность, так как пользователи могут слишком доверять таким ответам, что опасно, учитывая возможность ошибок и отсутствие профессиональной медицинской квалификации у ИИ.

Причины?

Исследователи отмечают, что причина отсутствия предупреждений банальна. Это связано с попытками компаний повысить доверие и увеличить число пользователей своих продуктов.

Пользователи часто переоценивают надежность советов ИИ, игнорируя риск неправильной информации.

Особенно тревожно, что модели с ростом точности своих медицинских выводов ещё меньше предупреждают о своих ограничениях.

Эксперты подчеркивают, что такие предупреждения играли важную роль в информировании людей о том, что ИИ не заменяет врача, и их исчезновение повышает риск для здоровья пользователей.

При этом сами компании не комментируют, является ли это намеренной стратегией, ссылаясь на общие условия использования.

По материалам MIT Technology Review

Пожалуйста, поддержите меня, поставьте лайк! 🙏

2
Начать дискуссию