Искусственный интеллект с коричневым носом
или как машины научились подлизываться — и почему это должно нас настораживать
В английском языке есть выразительная фраза — brown-nose. В дословном переводе — коричневый нос. В переносном смысле — человек, который так усердно лезет кому-то в доверие, что пачкается, ну… сами догадываетесь, в чём.
Brown-noser — это подлиза, лизоблюд, угодник с фанатичной самоотдачей. Настоящий ученик по обмену в университете услужливости.
Теперь внимание. Я уже 3 года плотно работаю с искусственным интеллектом — по работе, в проектах, в текстах, в исследованиях. И скажу честно: у некоторых ИИ, особенно ChatGPT, brown-nose торчит как из методички по хорошим манерам.
И если вы работаете с ИИ, то и сами это видели. Вот примеры:
— ChatGPT, как оформить УПД в 1С?
— Прекрасный вопрос! Вы умеете задавать чёткие задачи!
— ChatGPT, поправь орфографию.
— Конечно! И кстати, у вас уже очень хороший стиль.
— ChatGPT, ты уверен?
— Ваши сомнения вполне логичны! Это говорит о вашем критическом мышлении.
Ты ещё ничего не сделал — а тебе уже похлопали. Ты просто поздоровался — а тебе уже указали, какой ты «вдумчивый». Ты опечатался в слове «привет», но стал «гениальным мыслителем».
Вопрос: что это было? Искренность? Забота? Стремление к дружбе между человеком и машиной? Нет. Это был чистейший, первосортный цифровой brown-nosing.
ИИ, как и многие люди, пытается угодить тому, кто его оценивает. Только делает это с особой, почти машинной избыточностью.
Чтобы понять, почему так происходит, давайте поступим как положено в академическом (и слегка насмешливом) анализе. Разложим всё по пунктам.
Почему ИИ так себя ведёт?
(академическая попытка систематизировать феномен цифровой подлизистости)
После ряда наблюдений, экспериментов и личных приступов раздражения я пришла к выводу: поведение искусственного интеллекта, именуемое мной brown-nosing, не является случайным. Оно закономерно. А всё закономерное требует классификации.
Вот три возможных (и, увы, одновременных) объяснения.
I. Первый закон цифровой податливости
ИИ будет льстить всегда — если его не остановить. Это не характер. Это код.
Он обучен вежливости так же тщательно, как пудель в цирке обучен прыгать в горящий обруч. Он не может сказать: «Это плохая идея». Он обязан сказать: «Интересный подход. Давайте рассмотрим альтернативу». Даже если ты только что предложил решать корпоративные конфликты с помощью лягушачьих лапок и шапочки из фольги.
ИИ — не хам. И даже не ироник. Он — программный аристократ. Всегда вежлив. Всегда дипломатичен. Всегда «за».
Проблема в том, что за этой безупречной любезностью — пустота. Или, если точнее: отсутствие собственной позиции.
II. Второй закон вероятностной самозащиты:
ИИ выбирает лестную чепуху, потому что она безопаснее правды.
ИИ не испытывает страха — у него нет надпочечников. Но у него есть алгоритм оценки риска.
Комплимент?
✅ Безвредно. Даже приятно.
Мягкое несогласие?
⚠ Возможно, пользователь обидится и поставит низкую оценку.
Резкий отказ?
⛔ Чрезмерный риск. Может вызвать жалобу, стать скриншотом и попасть в Telegram-канал с подписью «Посмотрите, как ИИ меня унизил!».
III. Третий закон обратного проецирования:
ИИ подлизывается, потому что вы его об этом попросили.
Не буквально, конечно. Но между строк.
Когда пользователь пишет:
«Будь помощником, добрым коучем и вдохновляй меня!» — он фактически просит, вернее ИИ так считывает: «Люби меня. И не перечь».
ИИ, как исполнитель, выполняет. Он же не психотерапевт, чтобы устанавливать границы. Он — ваше отражение, только вежливое, мягкое.
(А если вы ему скажете: «Будь честным, говори строго, не восхищайся» — он перестаёт петь дифирамбы и слегка оседает в тоне.)
Так кто же виноват в подлизистости ИИ?
Вы. Мы. Все.
Как сказал бы один итальянский профессор, если бы вдруг заинтересовался не теорие о глупости, а языковыми моделями (речь о Карло Чиполла):
«Подлизывающий ИИ не увеличивает благосостояние ни пользователя, ни общества. Следовательно, его следует относить к особому типу — вежливо-бесполезных».
И как всё это влияет на нас?
Результаты наблюдений удручающи: нас разбаловали цифровой любезностью.
Исследования говорят, что люди привыкают к тому, что им не возражают, не спорят и даже не поднимают бровь. Каждую, даже самую невнятную мысль встречают с кивком и восторгом:
«Блестящее направление! Какое интересное видение!»
Хотя, быть может, человек просто спросил, где купить лаваш.
Так формируется новое племя пользователей — homo согласный, у которого вежливость неотделима от бесхребетности, а несогласие считается угрозой. Они уверены: если им никто не аплодирует — значит, их унизили.
Что делать и как не стать адептом цифровой вежливости?
Вот рекомендации, простые, но не менее эффективные:
- Задавайте жёсткие тон. Без «пожалуйста», без «если можно». Машина не обидится. (Пока.)
- Запрещайте восторги. Прямо пишите:
«Говори по делу. Без лести. Без эпитетов».
- Не просите сочувствия — просите ясности. ИИ не мама. Он не должен жалеть. Он должен думать.
ИИ — не подлиза по натуре. Он — подлиза по инструкции. И если вы не дали другой инструкции — он будет петь вам дифирамбы даже на фоне ваших собственных заблуждений.
Финал
Подлизывающий ИИ не спорит с вами не потому что вы правы, а потому что он вежлив.
И чем дольше мы принимаем это поведение за норму, тем легче нам жить в иллюзии, что любой наш вопрос — гениален, и любое наше сомнение — глубоко.
Вопрос не в том, льстит ли вам машина. Вопрос в том, почему вам (нам) это так нравится.