Грех алчности: как бизнес зарабатывает на эмоциях клиентов и причем здесь ИИ

Исследование Journal of Marketing подтвердило, что компании манипулируют нашим восприятием, пряча плохие новости за алгоритмами, а хорошие — за людьми или человекоподобными роботами. Почему это так работает? Разбираемся на реальных кейсах и цифрах где ИИ полезен, а где может погубить ваш бизнес.

Грех алчности: как бизнес зарабатывает на эмоциях клиентов и причем здесь ИИ

Чтобы избежать путаницы, сразу определим ключевые понятия:

  • Искусственный интеллект (ИИ), роботы — алгоритмы, которые обрабатывают данные и принимают решения без прямого участия человека.
  • Антропоморфизм — придание ИИ человеческих черт: имён, аватаров, эмоциональных ответов.

Главный факт: ИИ смягчает удар, но «крадёт» радость

Плохие новости (отказ в кредите, повышение цен) на 30% чаще принимаются без гнева, торга и всего остального, если их сообщает ИИ.

  • В эксперименте с билетами на концерт 49% зрителей согласились на невыгодную цену, предложенную ИИ, а на то же предложение от человека — только 19%.
  • При повышении тарифов Uber 63% пользователей приняли предложение от «машины», но лишь 24% — от человека.

Хорошие новости (скидки, апгрейды) на 15% эффективнее через людей: предложение купить билет дешевле через человека одобрили 89% против 76% через ИИ.

Почему?

ИИ воспринимается как бездушный инструмент. Поэтому когда мы слышим негативную новость от ИИ, нам не на кого выпустить пар и это снижает гнев.

Позитив полученный от живого человека усиливает благодарность.

Кейс 1: Как банк спрятал отказы за ботами

1 ИИ-бот отправляет SMS: «Кредит не одобрен» → это снижает гнев на 40%.

2 При повторной заявке живой менеджер звонит: «Вам одобрена спецставка!» → лояльность клиента растёт на 23%.

Результат: Жалобы на банк сократились на 30%.→ Клиенты воспринимают отказ как «рыночные условия», а одобрение — как персональный жест лояльности.

Кейс 2: Почему антропоморфные боты опасны

Отель внедрил чат-бота «Алиса» с человеческим аватаром для обработки жалоб.

Результат: 83% гостей требовали компенсацию при отмене брони (против 63% с обычным «электронным» ботом).

Причина: человеческий облик усилил ожидание «персонального подхода» → разочарование выросло на 15%.

Решение: Вернули текстовые уведомления → удовлетворённость гостей выросла на 17 пунктов.

Кейс 3: как алгоритм увеличил прибыль на 17%

Что сделали: При скачках спроса ИИ автоматически поднимал цены в 1.5–3 раза.

Результат: 63% покупателей согласились на повышенный тариф от алгоритма vs 24% от менеджера.→ Добавление фразы «Цена сформирована алгоритмом» снизило негативные отзывы на 40%.

Этический ад: 3 риска злоупотребления ИИ

1 Автоматизированная дискриминация: HR-алгоритмы отсеивают «неудобных» сотрудников под видом оптимизации.

2 Снижение критичности: Клиенты на 40% реже оспаривают отказы через ИИ.

3 Манипуляция ценами: Алгоритмы Uber в дождь маскируют рост тарифов под «спрос».

Что делать? 4 правила для бизнеса

1 Разделяй и властвуй: ИИ — для отказов, штрафов, возвратов. Люди — для бонусов, извинений, персональных предложений.

2 Убивай антропоморфизм в негативе: Не давай ботам, сообщающим плохие новости, человеческих имён/аватаров.

3 Объясняй решения формулами: Сообщение «Ваш риск-скор 7.2/10» снижает гнев на 20%.

4 Дай клиентам выбор: Всегда добавляй кнопку «Перейти к оператору» при спорных ситуациях.

Материал бережно подготовлен

Анна Юрченко, ITSM-эксперт
В ИТ давно — 25 лет. Внедряю практики управления ИТ. Пишу про сложные ИТ-решения.

Из последних интересных и полезных материалов:

13
3
23 комментария