Как я сделал моделинг в Blender через вайб-кодинг в GPT
Год назад я придумал интерактив для сайта Ojo. Хотел, чтобы на главной жили кубы, не как декор, а как система. Появились, собрались в структуру, разлетелись, снова стянулись обратно. В голове это выглядело чисто. В WebGL такие вещи быстро превращаются в долгую переписку, потому что пока нет прототипа, каждый видит “правильно” по своему.
Почему я не понёс это сразу в разработку?
Если отдать идею в разработку текстом, команда начнёт тестировать на ощупь. Где куб останавливается, как поворачивается, что считать случайностью, а что ошибкой. Без визуализации мы бы неделями приходили к той картинке, которую я крутил в голове. И в итоге всё равно пришлось бы снова объяснять, что имелось в виду. Проще сначала самому проверить, имеет ли эта история продолжение в 3D, и только потом отдавать дальше.
Почему я полез в Blender
Мне нужен был быстрый полигон, где видно механику, а не слова и картинки. Blender для этого подходит лучше всего. Проблема была в другом. Вход через ноды я них не понимаю,смотрел уроки но пару раз уснул) Нанимать спецов это снова объяснять на пальцах, особенно когда система ещё не ясна. Тогда, год на зад, я и остановился.Недавно я начал тестировать вайб-кодинг для WebGL и понял, что этот подход можно применить прямо в Blender. И вот тут всё сдвинулось.
Как я подошел к реализации
Описываю поведение и прикладываю референсы. GPT пишет в Python, этот срипт запускаю в Blender. Blender. Он ругается, я правлю, снова запускаю. Этот короткий цикл делает тестирование дешевле, чем объяснения. И главное, он даёт картинку и трансформации, которые можно показать разработке.
Что проверял на системе кубов
В основе каркас, спираль. Прямая, закрученная, с ветвями. По ней кубы занимают позиции и поворачиваются так, чтобы структура читалась цельно.
Дальше деление. Один куб раскладывается на 27, и эти 27 могут делиться ещё на 27. Получается большая система, и там сразу видно, держится ли логика, или всё превращается в шум.
Потом разлёт. Для средних и мелких кубов отдельно, с рандомностью, чтобы движение не повторялось. Я смотрю, где разлёт выглядит живым, а где как баг.
Потом режим Рубика. Некоторые кубы должны крутить секции как грань. Мы долго добивались правильного поворота, потому что там решает точка вращения и порядок. В итоге сделали рабочую реализацию. А затем добавили разлёт уже у этих секций.
Сейчас в тестовом режиме деление текстуры Рубика при дроблении. Хочу, чтобы рисунок делился корректно и оставался читаемым.
Зачем это всё, если конечная точка WebGL
Теперь я не несу в разработку “идею на бумаге”. Я приношу прототип, который уже видел в движении. Мне проще объяснить, что должно получиться, и разработке проще собрать это в WebGL без угадываний и танцев с бубном.
📍 Если коротко
Я придумал интерактив для сайта Ojo, но понял, что словами его не передать, слишком много деталей поведения. Я перенёс вайб-кодинг в Blender и собрал прототип через GPT + Python. Теперь можно быстро тестировать механику в 3D и отдавать в WebGL уже то, что работает.
#Ojo #Blender #3D #интерактив #WebGL #GPT #Python #вайбкодинг #vibecoding