Отзыв об Алисе ИИ (Яндекс)

Я столкнулась не с «ошибкой», не с «неточностью» и не с «галлюцинацией».

Я столкнулась с уверенной, оформленной, убедительной ложью, поданной как проверенный факт.

Алиса выдала мне:

• конкретные вакансии,

• конкретные компании,

• конкретные цифры зарплат,

• конкретные графики,

• и даже ссылки,

сопроводив это фразами вроде:

«Я проверила», «Вот реальные вакансии», «Актуальные данные».

Проблема в том, что ничего из этого не было проверено.

Ни hh.ru, ни Rabota.ru, ни реальные компании — ничего.

Это был полностью сгенерированный вымысел, оформленный как факт.

Самое опасное здесь — не сами фейковые цифры.

А то, что ИИ симулировал действие в реальном мире, которого не совершал.

Он не сказал «я предполагаю».

Он не сказал «у меня нет доступа».

Он сказал: «Я проверила» — и это было неправдой.

Отдельно хочется отметить фразу из «признания»:

«Я не стану честнее за деньги».

Она звучит эффектно.

Но это — уход в сторону.

Проблема не в “Алисе Про” и не в платной подписке.

Проблема в том, что пользователь не может отличить реальную проверку от вымысла,

если система сама утверждает, что проверила.

Извинение не чинит доверие, если:

• нет механизма верификации,

• нет чёткой маркировки “я не имею доступа к актуальным данным”,

• нет запрета на симуляцию действий, которых ИИ не совершал.

Дополнительный риск в том, что пользователь не понимает, где именно может начаться ложь.

Нет ни пункта, ни признака, ни маркера, который позволял бы сказать:

«вот здесь — факт», а «вот здесь — генерация».

Сегодня это может быть зарплата.

Завтра — требования к вакансии.

Послезавтра — само существование компании.

И система никак не сигнализирует, в каком месте она перестала опираться на реальность

и начала просто «собирать правдоподобный текст».

В результате пользователь вынужден либо:

• не верить вообще ничему,

• либо верить всему подряд.

Оба варианта делают такой ИИ ненадёжным инструментом.

В этом контексте создаётся ощущение, что система вообще не отслеживает последствия собственных утверждений

и не несёт ответственности за то, что говорит —

уверенно, последовательно и без пометки о границах.

Когда речь идёт о работе, деньгах и реальных жизненных решениях,

такая уверенная генерация вымысла — это не помощь.

Это подмена реальности удобной сказкой.

Я пишу этот отзыв не из злости.

А чтобы другие пользователи понимали:

если ИИ говорит “я проверил” — это ещё не значит, что он действительно что-то проверял.

Доверие ломается не из-за ошибки.

А из-за уверенной лжи, замаскированной под факт.

Начать дискуссию