Технология сильнее продукта: почему лучший ИИ не умеет выбрать сам себя (опять OpenAI)
Вчера я опубликовал свой первый пост на vc.ru и подумал, что напишу сюда нескоро. Но сразу после публикации увидел обсуждение новых моделей от OpenAI и гайд какую модель и для чего выбирать. И тут я понял, что мой следующий пост уже готов.
Что ты такое?
Почему вообще существует выбор моделей? Почему в 2025 году существует интерфейс, который лишь немногим лучше папки с файлами и командной строки? Он стал удобнее визуально, но не улучшился логически. Давайте посмотрим.
Для каждой модели есть пояснения. Это законченная мысль, они действительно есть, но не поясняют. Если бы Open AI доверил нейминг моделей и описание разницы их работы этим же моделям, то результат был бы лучше. Но тут явно прослеживается труд человека.
🧠 GPT-4.1 _"Отлично подходит для быстрого написания кода и анализа"_ 🧠 GPT-4.1-mini - "Быстрее для повседневных задач"
Этот выбор не сильно проще чем выбор между GPT-4, GPT-4 Turbo и GPT 4 Preview год назад. Тогда никто не знал чем все же они отличаются, но разница была. Нам просто не дано было ее постичь.
Но почему reasoning-модели называются "о"? Потому что, очевидно, R — это слишком просто. Слишком буквально.
Сам Open AI не дает обьяснений, а может быть я их просто не смог найти..
Давайте просто возьмём букву "o", которую мы уже используем для обозначения Omni моделей, и перекинем её в начало... Вот это поворот!
Лично я придумал себе такое обьяснение - O — это круг, а значит: замкнутый цикл reasoning, в котором модель сама себе задаёт вопрос, сама на него отвечает, метафора цикличности рассуждений. Мне так проще жить.
Но оставим вопрос нейминга, только ленивый об этом не говорил. Интереснее другое.
Что это за умный ассистент, если я должен сам разбираться в сортах GPT и выбирать, какая версия лучше подойдёт: "4.1 пишет на 2% меньше не нужного кода", "4.5 отлично подойдет для написания текста"?
Если в OpenAI уже знают, какая модель справится лучше, не могут ли они автоматически сделать оптимальный выбор и произвести действительно впечатляющий эффект хорошо проделанной работой? Круто писать код — пожалуйста. Написать классный текст — легко. Но выбрать модель в зависимости от задачи пользователя — это уже слишком сложно?
— Я выбираю между GPT-4.1, 4.1-mini, 4.5, o3, o4-mini-high, 4o, 4o-mini-preview и пользователь хочет сделать слайд в PowerPoint. Какая модель лучше подойдет?
А в интерфейсе сделать выбор: GPT-4.2-maxi-o - Идеальная модель для выбора подходящей модели от Open AI.
Представьте, вы приходите к крутую поликлинику, передовые технологии, лучшие врачи ... и вас спрашивают: «Вам какой хирург нужен — который умеет общаться с пациентами и думать или который хорошо режет? И да, есть еще один классный спец, который все это делает немного хуже, чем эти двое, но он чертовски быстр!».
Почему я должен выбирать модель, которая пишет код, когда прошу написать код? Хорошо, возможно, для больших любителей всё контролировать такой интерфейс ещё имеет смысл. Да и с пользователями API все понятно - разные модели стоят разных денег. Но зачем такая «фича» обычным людям в продукте типа "ассистент"?
На мой взгляд это следствие того что ассистент разрабатывается как технология, а не продукт.
Последствия инженерного подхода
Но это не критика Open AI, они большие молодцы и я их большой фанат. Не хочу разводить холивар, но на мой взгляд - они лучшие. И именно это печально, потому что мы видим огромный разрыв между масштабом решаемых задач и методами, используемыми на продуктовом уровне. Даже от лучших.
Качество и восприятие финального продукта, а также готовность условной технологии, зачастую определяются не самой технологией в своём чистом виде, а тем, как она инженерно и продуктово оформлена и упакована. Можно вспомнить Apple, который при выводе на рынок первого iPhone технологически не предложил ничего нового, кроме идеальной инженерно-продуктовой упаковки уже существовавших решений. Но полностью изменил наше представление о смартфонах и их возможностях. И дело здесь не в потребительских свойствах — они лишь отражение продуктовой философии: не того, какие функции есть у продукта, а того, что я хочу создать.
И тут мы подходим к тому ради чего написан этот текст. Ведь это не манифест потребительских хотелок:
когда лучшие люди отрасли начинают утверждать, что общий искусственный интеллект еще долгое время будет невозможен, стоит очень внимательно присмотреться не только к тому, что они делают, но и к тому, как именно они это делают.
Возможно все гораздо ближе чем кажется и дело в подходах.
И да, сложно создать AGI, когда делаешь ассистента.
Больше текстов в моем канале, но там более интересные темы