Начал делать открытые лекции по ЛЛМ.
Первая часть — про контекст.
Начал делать открытые лекции по ЛЛМ.
Первая часть — про контекст.
Начал писать приложеньку под ios на expo+react
Столкнулся с интеграцией со стором и тестингом на локалке, и….
Серьезный вторник, а я в банане сижу, картинки делаю 🌚
А вы заметили, что вся CGI графика из фильмов 20-летней давности теперь выглядит как нейрослоп? 😁
Нужно мне сделать много-много иконок к приложению.
Сделал одну штуку в банане про. Пошел в следующий диалог - говорю, сделай вот таких иконок по списку, и кидаю список сущностей из json.
Пообщались в сентябре с @neuraldeep про ЛЛМ-ки и RAG'и. Он очень глубокий практик, так что было очень интересно послушать его мысли.
Наконец-то домонтировали выпуск. Enjoy 🙂
Опус хорош, надежная рабочая лошадка.
Вышел новый Опус и вот уже пересуды, дескать, круче ли модель всего существующего, или нет.
И многие судят по странным бенчмаркам, типа "о господи, она работала 5/20/50/100500 минут и все сделала что нужно!"
Купил себе мак, буду делать iOS приложения.
Напишите в комментарии лучший сетап вайбкода под них.
То, какой результат вы получаете от нейросетей, напрямую связан с умением подавать в них правильный контекст.
В четверг 27 ноября в 16 часов по Москве проведу открытую лекцию по контексту нейросетей.
Ищу альтернативу gpt-4o-mini, потестил на досуге разные модельки.
Могу сказать, что Grok-4.1 хороша. Она практически такая же по цене, но на два порядка умнее. Рекомендую присмотреться.