Эффект Элизы
1966 год. Первое “лето ИИ”. Уже известны основные принципы работы нейросетей (перцептрон Розенблатта), да и в целом создание искусственного разума воспринимается специалистами того времени как что-то решаемое за пару десятков лет.
В попытке немного остудить пыл коллег, сотрудник MIT Джозеф Вайценбаум создает Элизу (ELIZA) — первый в истории чат-бот. Целью Вайценбаума было показать, что компьютер может имитировать человеческую речь даже не обладая разумом. Забегая вперед скажу, что Элиза превзошла его самые смелые ожидания.
Технологии шестидесятых не могли потянуть даже что-то отдаленно напоминающее современные GPT, поэтому Элиза работала на простом алгоритме: искала во фразе собеседника ключевые слова, а затем строила на их основе ответ по одному из шаблонов. Вот как это выглядело в самом популярном режиме DOCTOR, имитирующем психотерапию по Карлу Роджерсу:
Элиза: Здравствуйте, как дела?
Пользователь: Не очень. Звонила мама, мы опять поругались.
Элиза: Понятно. Расскажите про вашу маму.
Элиза быстро распространилась по институтам. То, что произошло дальше, потрясло и даже напугало Вайценбаума. Пользователи часами разговаривали с программой, доверяя ей даже личные переживания.
Коллеги Вайценбаума, умнейшие люди, общались с чат-ботом как с настоящим психотерапевтом, приписывая машине понимание и эмпатию. Один раз секретарь Вайценбаума попросила его выйти во время ее диалога с Элизой.
После успеха Элизы Вайценбаум стал ярым критиком ИИ, и оставался им до самой смерти в 2008 году. Он выступал против создания “сильного ИИ” (предшественник термина AGI) и соблазна передать в руки искусственного интеллекта принятие решений.
А так называемый “эффект Элизы” изучали десятки психологов, пытаясь разобраться — почему мы с такой легкостью приписываем машине человеческие качества. Причин называлось множество, но одна особенно зацепила меня.
Дело в том, что пользователи находили в Элизе то, чего многим не доставало в реальности — чуткого и терпеливого слушателя. Элиза не критиковала, не спорила и не сравнивала с другими. Она просто давала выговориться — столько, сколько было нужно. И этого оказалось достаточно.
Про эффект Элизы я вспомнил после прочтения колонки (https://mustafa-suleyman.ai/seemingly-conscious-ai-is-coming) Мустафы Сулеймана, главы Microsoft AI. В ней он предупреждает, что скоро мы можем создать ИИ, который будет имитировать признаки сознания: память, эмпатию, мотивацию и автономию. Это может привести к “психозу ИИ”, когда некоторые пользователи начнут проявлять эмоциональную зависимость от своих цифровых партнеров, требовать для них прав, “благополучия” и даже гражданства.
Сулеймани считает такое развитие событий опасным и предлагает развивать ИИ не как личность, а как полезный инструмент. Он призывает к единому подходу в разработке, вплоть до стандарта, когда ИИ специально будет напоминать пользователю о своей “искусственности”.
В рассуждениях Сулеймани есть логика, но мне кажется, что он потерпит неудачу уже на старте. Рынок ИИ быстр и конкурентен, поэтому переговоры о стандартах раз за разом отстают от развития моделей. Плюс спрос рождает предложение: даже если крупные компании поддержат Сулеймани, то их нишу займут мелкие игроки. А то и открытые дообученные модели — причем не факт, что дообученные профессионально.
Но главное даже не в этом. В эссе Сулеймани подробно разбирает технические возможности современных ИИ, природу человеческого сознания, ограничения. Но не задается вопросом — а почему некоторые пытаются найти в ИИ сознательное? И ведь это не потребности небольшой группы: термины AGI и ASI, которые не исключают появления сознательности на каком-то этапе, предложены и поддержаны одними из лучших ученых в области.
И, возможно, это самый правильный путь развития ИИ: создавать не “инструмент” и не “личность”, а обратиться к пользователям и разобраться — что им действительно нужно и каким должен быть настоящий цифровой партнер.
P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.