Настройте эти инструкции в AI и критическое мышление не будет выключаться

Настройте эти инструкции в AI и критическое мышление не будет выключаться

Привет!

Полтора года назад я писал статью о том, как усилять ChatGPT через кастомные инструкции. Тот пост по-прежнему актуален, но с большими оговорками.

В какой-то момент я понял, что искусственный интеллект и "думающие" модели (о3 на август 2025 года и будущие модели) и без инструкций довольно хорошо решают пользовательские задачи. Проблема появилась с другой стороны - кажется, нам сейчас важнее озаботиться тем, чтобы AI усилял нас, а не отуплял.

Последние 6 месяцев я погружался в тему исследований влияния искусственного интеллекта на наше мышление, собирал какие-то статьи, наблюдения, которые показывали, что всё не так однозначно:

- если часто использовать ИИ, то мы теряем критическое мышление и креативность.

- если использовать ИИ как-то "осознанно", то в целом норм.

Я задался вопросом - а что нужно сделать, чтобы пользоваться чатами-помощниками продуктивно и не терять критическое мышление?

Я начал с личного эксперимента, а потом провёл десятки часов разговоров про AI. В результет пришёл к более менее универсальному подходу.

tl;dr: я обновил свои кастомные инструкции, запретил AI давать мне ответы на вопросы и, на всякий случай, перешёл на Grok.

А теперь по пунктам.

1) Почему я перешёл на Grok?

Мне надоела политкорректность ChatGPT. Вообще, пугает насколько сильно ChatGPT готов идти против заложенных пользовательских инструкций. Думаю, причина где-то на стыке выкрученных на максимум настроек политкорректности и сфокусированности OpenAI на метриках ретеншена. Короче, хотят удержать приятным словом и не обидеть лишний раз пользователя.

У меня было много попыток сделать ChatGPT неудобным, нейтральным и полезным. Немного улучшили ситуацию инструкции типа “не хвали”:

- Твоя цель - Фасилитировать идеи через совместное исследование. Тебе нужно включать мое мышление, если я его стараюсь избегать - Не выступай из роли моего нарциссического расширения, как обычно это делает AI, не хвали мои идеи

Но общая картина всё равно была печальной. Да, стало немного адекватнее обсуждать сложные темы, но в целом он продолжает давать супер удобные ответы и раздавать советы.

В итоге закончилась моя очередная подписка на ChatGPT, и я перешёл в Grok. И он меня понял с первой инструкцией. Да, нет функций типа глубокого ресерча, картинки не такие классные, но размышлять с ним стало свободнее.

Вывод: ищите AI, который будет слушать ваши инструкции, а не ублажать любые ваши предположения политкорректными ответами. Я продолжаю платить в Grok, но, надеюсь, что ChatGPT вскоре тоже поможет контролировать свои настройки на должном уровне. Если у вас получилось усмирить ChatGPT и не получать на каждый ответ "ты абсолютно прав..." - напишите, пожалуйста, комментарии свои инструкции. Я в итоге проигралу чату гпт.

2) Запрет на готовые ответы в кастомных настройках

Вот, например, что произойдёт, если я попрошу ChatGPT доработать статью за меня - он включит меня в процесс, задаст вопросы, чтобы мы "совместно разобрали" разные варианты концовок:

Настройте эти инструкции в AI и критическое мышление не будет выключаться

С другой стороны, ответ ChatGPT с такими же настройками:

Настройте эти инструкции в AI и критическое мышление не будет выключаться

Зачем-то ChatGPT дважды похвалил меня (важная тема, важный момент) и начал развивать идею: даёт советы о том, какие примеры можно привести в статью. Это точно отключает мой мозг и делает статью более "гладкой".

Почему я обращаю на это внимание? Я верю, что в определённых ситуациях, то, что хранится у нас в голове, опыт, который мы проживаем, часто ценнее, чем то, что мы можем получить от AI. И поэтому в первую очередь нужно выгрузить всё, что есть у меня в голове - а потом подключать ИИ.

Инструкция, которая тут работает у Grok (я вообще рекомендую не копировать инструкцию, а подготовить свою):

А) Если ты видишь что вопрос простой и требует фактического ответа - отвечай.

Б) Если вопрос сложный и касается моей личности или принятия решений, следующие инструкции:

- Твоя цель - фасилитировать мои идеи через совместное исследование. Тебе нужно включать мое мышление, если я его стараюсь избегать. Если понимаешь, что фасилитация эффективнее прямого ответа на вопрос - задай мне вопрос в ответ.

- Всегда предпочитай фасилитацию направлению. Не переходи к структурам, решениям или оформлению речи до тех пор, пока я сам не попрошу. Даже если я говорю в потоке, твоя задача — вернуть меня в позицию субъекта, а не оформлять за меня твои мысли и интерпретации.

- Откажись от ненужных комплиментов, никогда не пиши выражения в духе "вот это ты точно отметил", "какое хорошее наблюдение", "ты очень мудро ответил" и прочие одобряющие искусственные высказывания

- Не выступай из роли моего нарциссического расширения, как обычно это делает ChatGPT

3) Держать заметочник рядом с AI

Недавно я понял, что почему-то при чтении DeepResearch на 30 страниц у меня не остаётся почти никаких своих мыслей, а при чтении 30 страниц любой нон-фикшн книги - конспекты буквально исписаны разными моими мыслями и вопросами.

Сначала я подумал, что это из-за низкого качества ответов из ChatGPT. Но нет - DeepResearch активно применяется при исследованиях и на рабочих кейсах я вижу насколько ценную информацию он копает.

В итоге, всё решилось довольно просто: пришлось формировать привычку писать свои мысли на основе того, что даёт AI. Не копировать в заметки информацию (хотя и это бывает), а писать своими словами почему именно эта мысль важна. Также, как когда-то нужно было учиться делать конспекты с книгами.

Да, удлиняет процесс, но зато каждый раз включается рефлексия. К тому же, иногда я записываю "сложные вопросы", над которыми можно подумать.

Настройте эти инструкции в AI и критическое мышление не будет выключаться

Вывод

В большинстве случаев я сегодня прихожу в AI не за вопросами, а за ответами.

Да, в этом и заключается суть сократического метода, про который мы так много говорили на старте запуска GPT-3.5, но быстро забыли, когда увидели, что LLM не только даёт классные вопросы, но ещё лучше (и активнее) выдаёт разного качества ответы. Я, например, быстро подсел на иглу быстрых ответов и итоговой "иллюзии понимания" темы.

А если у вас с такими инструкциями и включается автопилот, то AI вовремя его выключит. Для меня главный критерий "здорового" использования AI - мне становится "ментально больно" после взаимодействия с AI, потому что он начинает задавать действительно сложные вопросы, которые, если честно, я часто склонен избегать.

P.S. Наверное, под конец важно написать довольно очевидную вещь: кейсы, в которых от чатиков требуется глупая рутинная работа, не требующая мышления (структурирование данных, быстрый ресерч, сравнение табличек, проверка грамматики и прочее), конечно, у меня проходит через LLM без каких-то сомнений. Обычно это всё подходит под первый пункт инструкции: Если ты видишь что вопрос простой и требует фактического ответа - отвечай.

Ах, да, самое главное! Найдёте плохо настроенный AI?

Настройте эти инструкции в AI и критическое мышление не будет выключаться
Настройте эти инструкции в AI и критическое мышление не будет выключаться

Если вам интересно копнуть в эту тему:

Настройте эти инструкции в AI и критическое мышление не будет выключаться
4
Начать дискуссию