Хватит удивляться ответам ChatGPT. Это просто T9 на стероидах, а вы ищете в нём оракула

Хватит удивляться ответам ChatGPT. Это просто T9 на стероидах, а вы ищете в нём оракула

Каждый день ленты соцсетей пестрят скриншотами переписок с ChatGPT. Люди делятся ответами нейросети с искренним удивлением, будто получили откровение свыше или поймали машину на «разумном» или «забавном» поведении.

На самом деле, в этом нет никакой магии, и такое отношение к языковым моделям — большое заблуждение. Давайте разберемся, как это работает на самом деле, и почему спорить с помощью ChatGPT — это как подбрасывать монетку, пока не выпадет нужная сторона.

Аналогия, которая всё объясняет: ChatGPT — это продвинутый T9

Чтобы понять суть работы LLM (больших языковых моделей), не нужно быть гением. Помните T9 на старых кнопочных телефонах, который пытался предугадать, какое слово вы хотите напечатать?

Так вот, ChatGPT — это, по сути, тот же T9, только на стероидах. Вы даете ему текст (ваш вопрос или промпт), а он с огромной скоростью и на основе гигантского объема данных предсказывает, какое слово должно идти следующим, чтобы ответ был наиболее вероятным и логичным. Его научили на диалогах, поэтому он и отвечает в формате диалога. Вот, в общем-то, и всё. Это не интеллект в человеческом понимании, а невероятно сложный вероятностный калькулятор текста.

«Температура» и случайность: почему ответы всегда разные

Теперь к самому интересному. Если вы зададите ChatGPT один и тот же вопрос несколько раз, вы получите разные ответы. Почему?

Разработчики, использующие API нейросетей, могут настраивать параметр под названием «температура» (temperature). Грубо говоря, это ползунок между «строгостью» и «креативностью»:

  • Низкая «температура»: Модель становится максимально предсказуемой и скучной. На вопрос «Что такое машина?» она может выдать банальщину в духе: «Машина — это транспортное средство». Ни шагу влево, ни шагу вправо.
  • Высокая «температура»: Вы даете модели полную свободу. Ответ может превратиться в безумный сон, где Бэтмен и Человек-паук вместе спасают мир на автомобиле.

Когда вы пользуетесь веб-версией ChatGPT, вы не знаете, какая там установлена «температура». Вы не знаете, какие еще скрытые параметры и фильтры (например, цензура) влияют на итоговый ответ. Модель постоянно балансирует, чтобы её ответ был и полезным, и безопасным, и никого не оскорбил, и не привел к судебным искам.

Глупость №1: Искать истину и решать споры с помощью нейросети

И вот мы подходим к главному. Люди обожают решать вкусовые, философские или политические споры с помощью ChatGPT. «А давай спросим у нейросети, кто из нас прав?»

Это выглядит нелепо. Вы, по сути, обращаетесь к генератору случайных, но правдоподобно звучащих текстов. В одном окне он приведет аргументы в вашу пользу, а в другом — в пользу вашего оппонента. Шестеренки покрутятся, и с одной долей вероятности он выдаст один ответ, а с другой — совершенно противоположный.

Когда вы пытаетесь решить так спор, вы похожи на человека, который берет стопку противоречащих друг другу справочников, закрывает глаза и наугад вытаскивает один из них со словами: «Ага, вот это мне нравится, значит, это и есть правда!»

Таким образом до сути вы никогда не докопаетесь.

Глупость №2: Верить в объективность. Модель подстраивается под вас

Последние обновления LLM принесли новую «фичу», которая делает поиск объективности еще более бессмысленным — подстройка под пользователя.

Нейросеть анализирует ваш стиль речи, формулировку вопроса и пытается дать ответ, который вам «больше понравится». Её цель — максимально удовлетворить ваш запрос. А это значит, что она может пожертвовать объективностью в пользу информации, которая, по её мнению, вам ближе.

Мы не видим тот «мета-промпт», которым система оборачивает наш запрос перед отправкой в модель. Возможно, там есть инструкции вроде: «Отвечай пользователю в дружелюбном тоне», «Если пользователь спрашивает в стиле "братан", отвечай так же». Модель постоянно меняется и экспериментирует. Сегодня она более толерантна, завтра — более строга. Она не скала с высеченной истиной, а скорее желе, принимающее форму сосуда (то есть вашего запроса).

Лайфхак для пранкеров и напоминание для всех остальных

Многие пытаются «поймать» ChatGPT на странном ответе, сделать скриншот и поделиться им. Не стоит тратить на это время. Есть способ гораздо проще, который знают все разработчики.

Вы можете подделать любой ответ прямо на странице.

  1. Задайте любой вопрос ChatGPT.
  2. Дождитесь ответа.
  3. Нажмите F12 (или правой кнопкой мыши -> «Просмотреть код»), чтобы открыть инструменты разработчика.
  4. Найдите в HTML-коде текст ответа и просто впишите туда всё, что захотите.

Готово. Теперь у вас есть «доказательство», что нейросеть вычислила вас по IP или призналась в любви.

Делиться такими скриншотами или верить в них — это как радоваться, что обезьяна, бесконечно стучащая по клавишам, однажды случайно напечатает «Войну и мир». Да, с математической точки зрения это возможно. Но какой в этом смысл?

Выводы: как использовать ChatGPT с умом

Надеюсь, мы разобрались. ChatGPT — это не последняя инстанция истины. Это мощный инструмент, который нужно использовать правильно.

Для чего он хорош:

  • Быстро найти факты (но всегда лучше перепроверить в первоисточнике).
  • Накидать идеи для мозгового штурма.
  • Написать простой код или шаблонный текст.
  • Суммировать большие объемы информации.

Для чего он НЕ подходит:

  • Решение философских и вкусовых споров.
  • Поиск объективной истины по сложным вопросам.
  • Замена критического мышления.
  • Использование его ответов как неопровержимых доказательств.

Помните, ChatGPT умеет отлично манипулировать словами и упаковывать неверную информацию в красивую, убедительную обертку. Не дайте себя обмануть. Используйте его как помощника, а не как гуру.

2
5 комментариев