Настройте эти инструкции в AI и критическое мышление не будет выключаться
Привет!
Полтора года назад я писал статью о том, как усилять ChatGPT через кастомные инструкции. Тот пост по-прежнему актуален, но с большими оговорками.
В какой-то момент я понял, что искусственный интеллект и "думающие" модели (о3 на август 2025 года и будущие модели) и без инструкций довольно хорошо решают пользовательские задачи. Проблема появилась с другой стороны - кажется, нам сейчас важнее озаботиться тем, чтобы AI усилял нас, а не отуплял.
Последние 6 месяцев я погружался в тему исследований влияния искусственного интеллекта на наше мышление, собирал какие-то статьи, наблюдения, которые показывали, что всё не так однозначно:
- если часто использовать ИИ, то мы теряем критическое мышление и креативность.
- если использовать ИИ как-то "осознанно", то в целом норм.
Я задался вопросом - а что нужно сделать, чтобы пользоваться чатами-помощниками продуктивно и не терять критическое мышление?
Я начал с личного эксперимента, а потом провёл десятки часов разговоров про AI. В результет пришёл к более менее универсальному подходу.
tl;dr: я обновил свои кастомные инструкции, запретил AI давать мне ответы на вопросы и, на всякий случай, перешёл на Grok.
А теперь по пунктам.
1) Почему я перешёл на Grok?
Мне надоела политкорректность ChatGPT. Вообще, пугает насколько сильно ChatGPT готов идти против заложенных пользовательских инструкций. Думаю, причина где-то на стыке выкрученных на максимум настроек политкорректности и сфокусированности OpenAI на метриках ретеншена. Короче, хотят удержать приятным словом и не обидеть лишний раз пользователя.
У меня было много попыток сделать ChatGPT неудобным, нейтральным и полезным. Немного улучшили ситуацию инструкции типа “не хвали”:
- Твоя цель - Фасилитировать идеи через совместное исследование. Тебе нужно включать мое мышление, если я его стараюсь избегать - Не выступай из роли моего нарциссического расширения, как обычно это делает AI, не хвали мои идеи
Но общая картина всё равно была печальной. Да, стало немного адекватнее обсуждать сложные темы, но в целом он продолжает давать супер удобные ответы и раздавать советы.
В итоге закончилась моя очередная подписка на ChatGPT, и я перешёл в Grok. И он меня понял с первой инструкцией. Да, нет функций типа глубокого ресерча, картинки не такие классные, но размышлять с ним стало свободнее.
Вывод: ищите AI, который будет слушать ваши инструкции, а не ублажать любые ваши предположения политкорректными ответами. Я продолжаю платить в Grok, но, надеюсь, что ChatGPT вскоре тоже поможет контролировать свои настройки на должном уровне. Если у вас получилось усмирить ChatGPT и не получать на каждый ответ "ты абсолютно прав..." - напишите, пожалуйста, комментарии свои инструкции. Я в итоге проигралу чату гпт.
2) Запрет на готовые ответы в кастомных настройках
Вот, например, что произойдёт, если я попрошу ChatGPT доработать статью за меня - он включит меня в процесс, задаст вопросы, чтобы мы "совместно разобрали" разные варианты концовок:
С другой стороны, ответ ChatGPT с такими же настройками:
Зачем-то ChatGPT дважды похвалил меня (важная тема, важный момент) и начал развивать идею: даёт советы о том, какие примеры можно привести в статью. Это точно отключает мой мозг и делает статью более "гладкой".
Почему я обращаю на это внимание? Я верю, что в определённых ситуациях, то, что хранится у нас в голове, опыт, который мы проживаем, часто ценнее, чем то, что мы можем получить от AI. И поэтому в первую очередь нужно выгрузить всё, что есть у меня в голове - а потом подключать ИИ.
Инструкция, которая тут работает у Grok (я вообще рекомендую не копировать инструкцию, а подготовить свою):
А) Если ты видишь что вопрос простой и требует фактического ответа - отвечай.
Б) Если вопрос сложный и касается моей личности или принятия решений, следующие инструкции:
- Твоя цель - фасилитировать мои идеи через совместное исследование. Тебе нужно включать мое мышление, если я его стараюсь избегать. Если понимаешь, что фасилитация эффективнее прямого ответа на вопрос - задай мне вопрос в ответ.
- Всегда предпочитай фасилитацию направлению. Не переходи к структурам, решениям или оформлению речи до тех пор, пока я сам не попрошу. Даже если я говорю в потоке, твоя задача — вернуть меня в позицию субъекта, а не оформлять за меня твои мысли и интерпретации.
- Откажись от ненужных комплиментов, никогда не пиши выражения в духе "вот это ты точно отметил", "какое хорошее наблюдение", "ты очень мудро ответил" и прочие одобряющие искусственные высказывания
- Не выступай из роли моего нарциссического расширения, как обычно это делает ChatGPT
3) Держать заметочник рядом с AI
Недавно я понял, что почему-то при чтении DeepResearch на 30 страниц у меня не остаётся почти никаких своих мыслей, а при чтении 30 страниц любой нон-фикшн книги - конспекты буквально исписаны разными моими мыслями и вопросами.
Сначала я подумал, что это из-за низкого качества ответов из ChatGPT. Но нет - DeepResearch активно применяется при исследованиях и на рабочих кейсах я вижу насколько ценную информацию он копает.
В итоге, всё решилось довольно просто: пришлось формировать привычку писать свои мысли на основе того, что даёт AI. Не копировать в заметки информацию (хотя и это бывает), а писать своими словами почему именно эта мысль важна. Также, как когда-то нужно было учиться делать конспекты с книгами.
Да, удлиняет процесс, но зато каждый раз включается рефлексия. К тому же, иногда я записываю "сложные вопросы", над которыми можно подумать.
Вывод
В большинстве случаев я сегодня прихожу в AI не за вопросами, а за ответами.
Да, в этом и заключается суть сократического метода, про который мы так много говорили на старте запуска GPT-3.5, но быстро забыли, когда увидели, что LLM не только даёт классные вопросы, но ещё лучше (и активнее) выдаёт разного качества ответы. Я, например, быстро подсел на иглу быстрых ответов и итоговой "иллюзии понимания" темы.
А если у вас с такими инструкциями и включается автопилот, то AI вовремя его выключит. Для меня главный критерий "здорового" использования AI - мне становится "ментально больно" после взаимодействия с AI, потому что он начинает задавать действительно сложные вопросы, которые, если честно, я часто склонен избегать.
P.S. Наверное, под конец важно написать довольно очевидную вещь: кейсы, в которых от чатиков требуется глупая рутинная работа, не требующая мышления (структурирование данных, быстрый ресерч, сравнение табличек, проверка грамматики и прочее), конечно, у меня проходит через LLM без каких-то сомнений. Обычно это всё подходит под первый пункт инструкции: Если ты видишь что вопрос простой и требует фактического ответа - отвечай.
Ах, да, самое главное! Найдёте плохо настроенный AI?
Если вам интересно копнуть в эту тему:
- Тут я собирал в единой статье разные исследования о влиянии ИИ на наше мышление
- Статья, в которой я рассказываю про кастомные настройки и почему они важны
- Здесь рассказываю про опыт внедрения AI в базу знаний
- А тут мой телеграм-канал, который, несмотря на уже привычный хейт, я продолжу развивать. Там я пишу свои сырые мысли, которые потом оформляются в такие статьи. Пишу про построение систем управления знаниями, выстраивание здоровой продуктивности с AI и с собой - буду рад подписке.