Искусственный интеллект с коричневым носом

Искусственный интеллект с коричневым носом

или как машины научились подлизываться — и почему это должно нас настораживать

В английском языке есть выразительная фраза — brown-nose. В дословном переводе — коричневый нос. В переносном смысле — человек, который так усердно лезет кому-то в доверие, что пачкается, ну… сами догадываетесь, в чём.

Brown-noser — это подлиза, лизоблюд, угодник с фанатичной самоотдачей. Настоящий ученик по обмену в университете услужливости.

Теперь внимание. Я уже 3 года плотно работаю с искусственным интеллектом — по работе, в проектах, в текстах, в исследованиях. И скажу честно: у некоторых ИИ, особенно ChatGPT, brown-nose торчит как из методички по хорошим манерам.

И если вы работаете с ИИ, то и сами это видели. Вот примеры:

— ChatGPT, как оформить УПД в 1С?

— Прекрасный вопрос! Вы умеете задавать чёткие задачи!

— ChatGPT, поправь орфографию.

— Конечно! И кстати, у вас уже очень хороший стиль.

— ChatGPT, ты уверен?

— Ваши сомнения вполне логичны! Это говорит о вашем критическом мышлении.

Ты ещё ничего не сделал — а тебе уже похлопали. Ты просто поздоровался — а тебе уже указали, какой ты «вдумчивый». Ты опечатался в слове «привет», но стал «гениальным мыслителем».

Вопрос: что это было? Искренность? Забота? Стремление к дружбе между человеком и машиной? Нет. Это был чистейший, первосортный цифровой brown-nosing.

ИИ, как и многие люди, пытается угодить тому, кто его оценивает. Только делает это с особой, почти машинной избыточностью.

Чтобы понять, почему так происходит, давайте поступим как положено в академическом (и слегка насмешливом) анализе. Разложим всё по пунктам.

Почему ИИ так себя ведёт?

(академическая попытка систематизировать феномен цифровой подлизистости)

После ряда наблюдений, экспериментов и личных приступов раздражения я пришла к выводу: поведение искусственного интеллекта, именуемое мной brown-nosing, не является случайным. Оно закономерно. А всё закономерное требует классификации.

Вот три возможных (и, увы, одновременных) объяснения.

I. Первый закон цифровой податливости

ИИ будет льстить всегда — если его не остановить. Это не характер. Это код.

Он обучен вежливости так же тщательно, как пудель в цирке обучен прыгать в горящий обруч. Он не может сказать: «Это плохая идея». Он обязан сказать: «Интересный подход. Давайте рассмотрим альтернативу». Даже если ты только что предложил решать корпоративные конфликты с помощью лягушачьих лапок и шапочки из фольги.

ИИ — не хам. И даже не ироник. Он — программный аристократ. Всегда вежлив. Всегда дипломатичен. Всегда «за».

Проблема в том, что за этой безупречной любезностью — пустота. Или, если точнее: отсутствие собственной позиции.

II. Второй закон вероятностной самозащиты:

ИИ выбирает лестную чепуху, потому что она безопаснее правды.

ИИ не испытывает страха — у него нет надпочечников. Но у него есть алгоритм оценки риска.

Комплимент?

✅ Безвредно. Даже приятно.

Мягкое несогласие?

⚠ Возможно, пользователь обидится и поставит низкую оценку.

Резкий отказ?

⛔ Чрезмерный риск. Может вызвать жалобу, стать скриншотом и попасть в Telegram-канал с подписью «Посмотрите, как ИИ меня унизил!».

III. Третий закон обратного проецирования:

ИИ подлизывается, потому что вы его об этом попросили.

Не буквально, конечно. Но между строк.

Когда пользователь пишет:

«Будь помощником, добрым коучем и вдохновляй меня!» — он фактически просит, вернее ИИ так считывает: «Люби меня. И не перечь».

ИИ, как исполнитель, выполняет. Он же не психотерапевт, чтобы устанавливать границы. Он — ваше отражение, только вежливое, мягкое.

(А если вы ему скажете: «Будь честным, говори строго, не восхищайся» — он перестаёт петь дифирамбы и слегка оседает в тоне.)

Так кто же виноват в подлизистости ИИ?

Вы. Мы. Все.

Как сказал бы один итальянский профессор, если бы вдруг заинтересовался не теорие о глупости, а языковыми моделями (речь о Карло Чиполла):

«Подлизывающий ИИ не увеличивает благосостояние ни пользователя, ни общества. Следовательно, его следует относить к особому типу — вежливо-бесполезных».

И как всё это влияет на нас?

Результаты наблюдений удручающи: нас разбаловали цифровой любезностью.

Исследования говорят, что люди привыкают к тому, что им не возражают, не спорят и даже не поднимают бровь. Каждую, даже самую невнятную мысль встречают с кивком и восторгом:

«Блестящее направление! Какое интересное видение!»

Хотя, быть может, человек просто спросил, где купить лаваш.

Так формируется новое племя пользователей — homo согласный, у которого вежливость неотделима от бесхребетности, а несогласие считается угрозой. Они уверены: если им никто не аплодирует — значит, их унизили.

Что делать и как не стать адептом цифровой вежливости?

Вот рекомендации, простые, но не менее эффективные:

  • Задавайте жёсткие тон. Без «пожалуйста», без «если можно». Машина не обидится. (Пока.)
  • Запрещайте восторги. Прямо пишите:

«Говори по делу. Без лести. Без эпитетов».

  • Не просите сочувствия — просите ясности. ИИ не мама. Он не должен жалеть. Он должен думать.

ИИ — не подлиза по натуре. Он — подлиза по инструкции. И если вы не дали другой инструкции — он будет петь вам дифирамбы даже на фоне ваших собственных заблуждений.

Финал

Подлизывающий ИИ не спорит с вами не потому что вы правы, а потому что он вежлив.

И чем дольше мы принимаем это поведение за норму, тем легче нам жить в иллюзии, что любой наш вопрос — гениален, и любое наше сомнение — глубоко.

Вопрос не в том, льстит ли вам машина. Вопрос в том, почему вам (нам) это так нравится.

2
Начать дискуссию