Шутка года — Google жестко ограничила доступ к Gemini 2.5 Deep Think пользователям подписки Ultra
В X и на Reddit уже десятки жалоб, что в сутки можно сделать примерно пять запросов — а у некоторых пользователей сообщение о лимите появилось после одного. Повторюсь, речь о подписке Gemini AI Ultra, которая стоит 250 долларов и доступ к Deep Think всегда заявлялся как одно из основных ее преимуществ.
Также пользователи жалуются, что в подписке Ultra доступна более простая версия Deep Think, чем та, которая недавно взяла “золото” на Международной математической олимпиаде (IMO 2025) — ее показатель в IMO в районе 60%, а это уровень бронзы. Впрочем, ответы самой модели хвалят, отмечая, что это большой шаг вперед в сравнении с Gemini 2.5 Pro — которая, кстати, очень неплоха сама по себе.
Логан Килпатрик из Google уже отреагировал словами, что в будущем могут повысить лимиты. Но повторю то, что говорил буквально вчера: передовые ИИ-модели всегда будут дорогим удовольствием.
Даже если Google через несколько дней увеличит лимиты, то останется другая валюта — время. Я иногда пользуюсь ChatGPT o3-Pro — одна из особенностей этой модели в том, что она может легко потратить на ответ 10+ минут. Аналогичные отзывы уже есть и о Deep Think.
В работе с такими ИИ на первый план выходят два навыка. Первый — сделать правильный выбор модели. Опять же, если вернуться к o3-Pro — это очень крутая штука, но 95% моих задач ничуть не хуже выполняет обычная o3, тратя на ответ 1-2 минуты.
Второй — подобные модели чувствительны к стартовому промпту. Я больше люблю работать с ИИ в режиме диалога — обрисовать задачу, а затем, добавляя детали, постепенно двигаться к результату. Но когда ответ приходит через 10 минут, а само количество ответов в день ограничено — диалог не подходит, надо промптить заранее, как мы пишем техзадание для сложной задачи.
Еще раз напомню свою любимую структуру промпта для сложных задач, она эффективная и быстро запоминается:
- Задача
- Формат ответа
- Исключения и самопроверки
- Контекст
В задаче описываем, что именно мы хотим от модели. Если хотите, чтобы ИИ выступал как мировой эксперт с 20-летним опытом — начните с этого. Сам я такой подход не люблю — если дать достаточно данных в контексте (для чего подана задача, ваш уровень знаний), то модель подстроится не хуже.
В формате указываем, какой именно хотим ответ. Это может быть драфт презентации или программа, написанная на html, а не на чем-то еще. Данный пункт можно пропустить, если доверяете модели выбрать самой.
В исключениях и самопроверках, во-первых, говорим модели, что не нужно делать. Во-вторых — просим ее, например, все цифры и факты подкреплять ссылками на источник и проверять, что по ссылкам есть настоящие страницы (обходит галлюцинации). Для o3 я еще всегда добавляю просьбу “пиши на русском языке, без англицизмов” — заметно улучшает язык модели.
В контекст добавляем всю информацию, которую должна знать модель. Если вы планируете поездку, то начните с дат, расскажите, кто едет, какой бюджет, какие предпочтения по кухне, типу отдыха, готовы ли брать авто напрокат и так далее. Контекстом также считаются любые файлы, которые вы даете модели — например, таблицы с аналитикой в бизнес-задаче.
По моему опыту, первый и четвертый пункт являются самыми важными. Для заполнения контекста я нередко даже вкидываю промпт в более быструю модель, вроде 4o, которую прошу проверить — все ли я учел. Занимает 1-2 минуты, но зато гарантирует лучший результат.
P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.