ИИ-Новости дайджест (21–29 сентября)

На этой неделе человечество сделало то, о чём, возможно, пожалеет. Хочу вам про это всё рассказать. Подпишитесь на мой ТГ-канал, оставь в комментарий свой вопрос, чтобы проект поддержать. И не пропускай важные сигналы в информационном потоке и инсайты. Погнали 👇

ИИ-Новости дайджест (21–29 сентября)

Что было на прошлой неделе?

«Через пару недель мы запустим очень интересные и супер-вычислительные штуки»

— 21 сентября Альтман в X написал

Что это значит? Они запускают проактивный ChatGPT.

Представь: ты спишь, а он ночью сам шарится по твоим старым перепискам, гугл-календарю и даже почте. Утром у тебя уже готовая лента новостей или план на день.

Это пока только для «про»-юзеров за $200 – дороговато, но любопытно.

«Относитесь к GPT как к персональному ассистенту. Ты можешь задавать общие рамки, а он начнёт действовать сам».

Альтман

Короче, у него есть кнопка — корректировать курс. Ждём, когда это дойдёт до обычной подписки за $20.

А еще OpenAI выкатили новый эталон — GDP-Wall. Это не игрушка, а реальные задачи по профессиям: от инженеров и журналистов до медсестёр. Там дают модели крупную «дневную» задачу и сравнивают с экспертами.

Они проверили «тест Гёделя»: модели дали открытые математические задачи, на которые у PhD-студентов уходят дни. Из пяти GPT-5 решила три, причём в одном случае выдала альтернативное доказательство. Это уже не просто воспроизведение датасета, а намёк на новое мышление.

И вишенка — инфраструктура OpenAI не тормозит: строят не только свой гигантский Stargate в Техасе, но и ещё пять дата-центров. Мощность хотят довести до 10 ГВт. Инвестиции — $400+ млрд за три года. План — добавлять по 1 ГВт мощностей каждую неделю.

Альтман написал эссе Abundant Intelligence, где прямо говорит: ИИ станет базовым ресурсом, почти как электричество.

А здесь промпты от академии OpenAI

Теперь к практике, что можно «пощупать».

Китай снова подкинул новость для фанатов ИИ. Вышел DeepSeek v3.1. Там не взрыв, но приятные апдейты: модель меньше путается между китайским и английским, заметно лучше пишет код и подтянула агентные функции.

Ребята из Terminus уже выкатили графики — видно, что прогресс есть, пусть и без «вау-эффекта».

Хочется, конечно, чтобы на горизонте замаячил их R2, но тут всё упирается в чипы и регуляции. 
Хочется, конечно, чтобы на горизонте замаячил их R2, но тут всё упирается в чипы и регуляции. 

Так что пока радуемся мелким улучшениям — всё равно шаг вперёд. А потестить можно тут

Из полезных релизов

Гугл зарелизил штуку под названием Learn Your Way. Это не очередной скучный учебник в цифре, а реально интерактивное приложение. Там всё намешано: иммерсивный текст, квизы после каждого раздела, слайды с озвучкой, аудиоуроки и даже майнд-карты.

Пока можно посмотреть из готовых вариантов и записаться в вейтлист.

Под капотом не просто Gemini 2.5 Pro, а связка: агентная система + отдельная модель для учебных иллюстраций (сам Gemini с этим пока справляется так себе). Google ещё и статью выкатил: по их данным, усвоение идёт на +9% лучше, чем если просто читать PDF.

Фишка в том, что ты грузишь туда PDF или просто тему, а система пересобирает материал под твой контекст. В демо они, например, объясняли физику через примеры из скейтбординга.

Во-первых, Suno зарелизили v5 — и это уже почти не отличить от живой музыки. V4 звучала круто, но тут реально шаг вверх.

А во-вторых, они выкатили Suno Studio. Это не просто кнопка «сгенерить трек», а уже полноценный инструмент: можно разносить вокал, перкуссию, басы, барабаны по дорожкам, накладывать эффекты, сводить.

Короче, мини-DAW прямо внутри AI-сервиса. Генерация из чего угодно - звук, слово, картинка, видео или даже кашель
🥁 Автоматически собирает дорожки: вокал, ударные, синты и любые инструменты
🎚 Профи-редактор: сведение, BPM, тональность, громкость и тембр под контролем
🎼 Экспорт в MIDI и импорт в любую DAW - работай как привык
⏩ Умеет продолжать песни по отрывку и дописывать трек до конца

Suno Studio доступна в Premium/Pro (от $30 в месяц). У них появился конкурент — Mozart AI, его пока можно погонять бесплатно.

Я ещё не делал честное head-to-head сравнение, но если надо — подключу знакомых музыкантов и замутим обзор.

У Heygen теперь агент, который прямо сам монтирует видео. Не просто «собери ролик по шаблону», а реально монтаж — нарезка, стыковка, эффекты.

А у MiniMax выкатили MiniMax Agent. Это больше похоже на «Gemini/ChatGPT для графики»: в чате можно генерить картинки, редактировать их, комбинировать, собирать постеры или плакаты. Даже заявляют генерацию видео.

В каждой модели было 2-4 генерации, и был выбран лучший результат среди — Luma Ray3 — Google Veo 3 — ByteDance Seedance Pro — Kling 2.1 — Midjourney Video — MiniMax Hailuo 02

NVIDIA тихо, но мощно подкинула апдейт: теперь у них есть модель, которая по аудио генерирует видео. И это не «оживить фотку» и не анимировать готовые кадры, а именно синтез лица по голосу. То есть ты говоришь — и появляется лицо, которое «озвучивает» твой голос. Выглядит реально круто.

Параллельно NVIDIA двигает тему «сверхреалистичных миров» и будущих метавселенных. Пока просто отмечаем прогресс — и чуть надеемся, что граница между «реальным» и «нереальным» всё-таки не растворится окончательно.

У Photoshop вышли апдейты, и это прям уровень «будущее под рукой». Пользователи бета-версии Photoshop получили прямой доступ к Nano Banana через функцию Generative Fill. Для использования достаточно выбрать Gemini 2.5 Flash = Nano Banana из списка доступных моделей. В связке с их свежим Match/Blend (одна кнопка — и объект идеально вписывается в фон) Фотошоп становится каким-то магическим инструментом. .

И вишенка — генерация видео с прозрачным фоном. Пока есть артефакты, но уже можно юзать и добивать в After Effects. Для дизайнеров это вообще подарок

Ещё один релиз — ONE-2 (image). Фишка в том, что он круто справляется с текстом прямо на изображениях (а это обычно боль у генеративок), держит длинные и замороченные промпты, даёт фотореалистичные текстуры и аккуратную графику. Причём даже со «стилизованными» рисунками, где у моделей обычно каша, тут всё прилично. Модель скоро могут выкатить в open-source.

Внутри — полный фарш: image-editing, перенос стилей, даже видео с аудиосинхрой заявлено. Всё это уже завезли в Higxfield, вместе с прошлым обновлением 2.5. Так что «нанобананиться» теперь можно в полный рост.

На 3D-фронте тоже зашевелилось Han 3.0 считалась «передовой», но теперь у неё два серьёзных конкурента.

Triple 3.0 Ultra Mode — даёт просто безумную детализацию 3D-объектов.

DMK/Hyper3D Gen-2 — тут уже магия: можно разбирать объекты на части, собирать обратно, готовить под 3D-печать. Для фигурок и прототипов — прям мечта.

Короче, гонка в 3D пошла не на шутку: от «вау, моделька» до полного пайплайна под печать и продакшн.

Все эти новости про новые модели — будь то видео, звук или генерация картинок или целых миров — показывают одно: контент создаётся всё быстрее, качественнее и с меньшими затратами.

Но у большинства экспертов остаётся главная проблема — как всё это упаковать в систему продаж, чтобы оно приносило доход, а не просто радовало глаз.

Поэтому если вы уже пробуете новые ИИ-модели, логичный следующий шаг — встроить их в воронку продаж своих знаний через бесплатный конструктор. Так ваши эксперименты превратятся в продажи, а продажи — в системный доход.

Моя ИИшка тоже развивается, чтобы бесплатно собирать вашу воронку продаж из 23 ключевых элементов: дизайн, лид-магниты, сценарии видео, чат-боты, продуктовую матрицу, тарифы и аналитику.

Там, где раньше требовались команда, месяцы работы и тысячи долларов, теперь всё делается за 30 минут с минимумом усилий.

И на этом новости нейросетей последней недели подходят к концу. Спасибо большое за ваш лайк, комментарий, подписочку. Сейчас реально релизы всё мощнее и мощнее. Я уже боюсь представить, что там через пару месяцев будет. Будем посмотреть

Начать дискуссию