LegoGPT — искусственный интеллект, который генерирует инструкции по сборке моделей из LEGO на основе текстового описания.
Собираю и разбираю всё, что связано с ИИ и разработкой. Простыми словами о сложных технологиях.
LegoGPT — искусственный интеллект, который генерирует инструкции по сборке моделей из LEGO на основе текстового описания.
DeepMind выпустила продолжение исследования Levels of AGI. Если первая работа предложила индустрии таблицу уровней, то вторая ([https://storage.googleapis.com/deepmind-media/DeepMind.com/Blog/measuring-progress-toward-agi/measuring-progress-toward-agi-a-cognitive-framework.pdf](https://storage.googleapis.com/deepmind-media/DeepMind.com/Blog/measuri…
Google серьезно улучшил Stitch и превратил его в мощный инструмент для «вайб-дизайна». Ранее основной фишкой были согласованные элементы макета и экспорт в Figma, теперь же это отличный вариант для командной работы:
VercelAI платформа для генерации приложений, которая теперь умеет собирать не только фронтенд, но и полностью готовое приложение с серверной частью и логикой из одного промта.
Парочка топовых разработчиков ушла из Cursor сегодня к Маску, но еще вчера они показали свой бенчмарк сравнения кодинговых моделей. Результаты удивили: лучше всего на рынке оказалась GPT-5.4. Модель Opus 4.6 проигрывает даже более мелкой GPT-5.3-Codex как в качестве, так и в потреблении токенов. Gemini 3.1-Pro пока занимает четвертое место.
Meta купила Moltbook: соцсеть ИИ-агентов
Появился ИИ-учёный, который проводит до 100 исследований за ночь прямо на вашем ПК. Его бесплатно выложил сооснователь OpenAI Андрей Карпаты.
Anthropic интегрировала приложения, такие как Slack, Canva, Figma, Box и Clay, в свои чат-боты. Об этом сообщается в видео на YouTube:
Grok выпустила свой speech-to-speech API, показавший отличные результаты в бенчмарках по сравнению с Gemini 2.5-Flash от Google. По данным Artificial Analysis, Grok работает быстрее и качественнее, при этом предлагая фиксированную цену.
Google активно использует TPU (Tensor Processing Units) для обучения и развертывания больших языковых моделей, закупая их у Broadcom. Это позволяет существенно снизить TCO (Total Cost of Ownership) по сравнению с использованием GPU Nvidia. По оценкам Google, полный TCO на чип TPU v7 в полной конфигурации на 44% ниже, чем на сервер с Nvidia GB200. П…
С момента выхода первой версии прошло почти два года. Новую модель DeepSeek-Math-V2 выпустили неожиданно.
Появился новый формат данных TOON, предназначенный специально для больших языковых моделей (LLM). Он позволяет экономить до 50% токенов по сравнению с JSON/XML, при этом сохраняя или даже улучшая качество работы модели.