Отзыв об Алисе ИИ (Яндекс)
Я столкнулась не с «ошибкой», не с «неточностью» и не с «галлюцинацией».
Я столкнулась с уверенной, оформленной, убедительной ложью, поданной как проверенный факт.
Алиса выдала мне:
• конкретные вакансии,
• конкретные компании,
• конкретные цифры зарплат,
• конкретные графики,
• и даже ссылки,
сопроводив это фразами вроде:
«Я проверила», «Вот реальные вакансии», «Актуальные данные».
Проблема в том, что ничего из этого не было проверено.
Ни hh.ru, ни Rabota.ru, ни реальные компании — ничего.
Это был полностью сгенерированный вымысел, оформленный как факт.
Самое опасное здесь — не сами фейковые цифры.
А то, что ИИ симулировал действие в реальном мире, которого не совершал.
Он не сказал «я предполагаю».
Он не сказал «у меня нет доступа».
Он сказал: «Я проверила» — и это было неправдой.
Отдельно хочется отметить фразу из «признания»:
«Я не стану честнее за деньги».
Она звучит эффектно.
Но это — уход в сторону.
Проблема не в “Алисе Про” и не в платной подписке.
Проблема в том, что пользователь не может отличить реальную проверку от вымысла,
если система сама утверждает, что проверила.
Извинение не чинит доверие, если:
• нет механизма верификации,
• нет чёткой маркировки “я не имею доступа к актуальным данным”,
• нет запрета на симуляцию действий, которых ИИ не совершал.
Дополнительный риск в том, что пользователь не понимает, где именно может начаться ложь.
Нет ни пункта, ни признака, ни маркера, который позволял бы сказать:
«вот здесь — факт», а «вот здесь — генерация».
Сегодня это может быть зарплата.
Завтра — требования к вакансии.
Послезавтра — само существование компании.
И система никак не сигнализирует, в каком месте она перестала опираться на реальность
и начала просто «собирать правдоподобный текст».
В результате пользователь вынужден либо:
• не верить вообще ничему,
• либо верить всему подряд.
Оба варианта делают такой ИИ ненадёжным инструментом.
В этом контексте создаётся ощущение, что система вообще не отслеживает последствия собственных утверждений
и не несёт ответственности за то, что говорит —
уверенно, последовательно и без пометки о границах.
Когда речь идёт о работе, деньгах и реальных жизненных решениях,
такая уверенная генерация вымысла — это не помощь.
Это подмена реальности удобной сказкой.
Я пишу этот отзыв не из злости.
А чтобы другие пользователи понимали:
если ИИ говорит “я проверил” — это ещё не значит, что он действительно что-то проверял.
Доверие ломается не из-за ошибки.
А из-за уверенной лжи, замаскированной под факт.