ИИ-Новости дайджест (21–29 сентября)
На этой неделе человечество сделало то, о чём, возможно, пожалеет. Хочу вам про это всё рассказать. Подпишитесь на мой ТГ-канал, оставь в комментарий свой вопрос, чтобы проект поддержать. И не пропускай важные сигналы в информационном потоке и инсайты. Погнали 👇
Что было на прошлой неделе?
«Через пару недель мы запустим очень интересные и супер-вычислительные штуки»
Что это значит? Они запускают проактивный ChatGPT.
Представь: ты спишь, а он ночью сам шарится по твоим старым перепискам, гугл-календарю и даже почте. Утром у тебя уже готовая лента новостей или план на день.
«Относитесь к GPT как к персональному ассистенту. Ты можешь задавать общие рамки, а он начнёт действовать сам».
Короче, у него есть кнопка — корректировать курс. Ждём, когда это дойдёт до обычной подписки за $20.
А еще OpenAI выкатили новый эталон — GDP-Wall. Это не игрушка, а реальные задачи по профессиям: от инженеров и журналистов до медсестёр. Там дают модели крупную «дневную» задачу и сравнивают с экспертами.
Они проверили «тест Гёделя»: модели дали открытые математические задачи, на которые у PhD-студентов уходят дни. Из пяти GPT-5 решила три, причём в одном случае выдала альтернативное доказательство. Это уже не просто воспроизведение датасета, а намёк на новое мышление.
И вишенка — инфраструктура OpenAI не тормозит: строят не только свой гигантский Stargate в Техасе, но и ещё пять дата-центров. Мощность хотят довести до 10 ГВт. Инвестиции — $400+ млрд за три года. План — добавлять по 1 ГВт мощностей каждую неделю.
Альтман написал эссе Abundant Intelligence, где прямо говорит: ИИ станет базовым ресурсом, почти как электричество.
А здесь промпты от академии OpenAI
Теперь к практике, что можно «пощупать».
Китай снова подкинул новость для фанатов ИИ. Вышел DeepSeek v3.1. Там не взрыв, но приятные апдейты: модель меньше путается между китайским и английским, заметно лучше пишет код и подтянула агентные функции.
Ребята из Terminus уже выкатили графики — видно, что прогресс есть, пусть и без «вау-эффекта».
Так что пока радуемся мелким улучшениям — всё равно шаг вперёд. А потестить можно тут
Из полезных релизов
Гугл зарелизил штуку под названием Learn Your Way. Это не очередной скучный учебник в цифре, а реально интерактивное приложение. Там всё намешано: иммерсивный текст, квизы после каждого раздела, слайды с озвучкой, аудиоуроки и даже майнд-карты.
Пока можно посмотреть из готовых вариантов и записаться в вейтлист.
Под капотом не просто Gemini 2.5 Pro, а связка: агентная система + отдельная модель для учебных иллюстраций (сам Gemini с этим пока справляется так себе). Google ещё и статью выкатил: по их данным, усвоение идёт на +9% лучше, чем если просто читать PDF.
Во-первых, Suno зарелизили v5 — и это уже почти не отличить от живой музыки. V4 звучала круто, но тут реально шаг вверх.
А во-вторых, они выкатили Suno Studio. Это не просто кнопка «сгенерить трек», а уже полноценный инструмент: можно разносить вокал, перкуссию, басы, барабаны по дорожкам, накладывать эффекты, сводить.
Короче, мини-DAW прямо внутри AI-сервиса. Генерация из чего угодно - звук, слово, картинка, видео или даже кашель
🥁 Автоматически собирает дорожки: вокал, ударные, синты и любые инструменты
🎚 Профи-редактор: сведение, BPM, тональность, громкость и тембр под контролем
🎼 Экспорт в MIDI и импорт в любую DAW - работай как привык
⏩ Умеет продолжать песни по отрывку и дописывать трек до конца
Suno Studio доступна в Premium/Pro (от $30 в месяц). У них появился конкурент — Mozart AI, его пока можно погонять бесплатно.
У Heygen теперь агент, который прямо сам монтирует видео. Не просто «собери ролик по шаблону», а реально монтаж — нарезка, стыковка, эффекты.
А у MiniMax выкатили MiniMax Agent. Это больше похоже на «Gemini/ChatGPT для графики»: в чате можно генерить картинки, редактировать их, комбинировать, собирать постеры или плакаты. Даже заявляют генерацию видео.
NVIDIA тихо, но мощно подкинула апдейт: теперь у них есть модель, которая по аудио генерирует видео. И это не «оживить фотку» и не анимировать готовые кадры, а именно синтез лица по голосу. То есть ты говоришь — и появляется лицо, которое «озвучивает» твой голос. Выглядит реально круто.
Параллельно NVIDIA двигает тему «сверхреалистичных миров» и будущих метавселенных. Пока просто отмечаем прогресс — и чуть надеемся, что граница между «реальным» и «нереальным» всё-таки не растворится окончательно.
У Photoshop вышли апдейты, и это прям уровень «будущее под рукой». Пользователи бета-версии Photoshop получили прямой доступ к Nano Banana через функцию Generative Fill. Для использования достаточно выбрать Gemini 2.5 Flash = Nano Banana из списка доступных моделей. В связке с их свежим Match/Blend (одна кнопка — и объект идеально вписывается в фон) Фотошоп становится каким-то магическим инструментом. .
Ещё один релиз — ONE-2 (image). Фишка в том, что он круто справляется с текстом прямо на изображениях (а это обычно боль у генеративок), держит длинные и замороченные промпты, даёт фотореалистичные текстуры и аккуратную графику. Причём даже со «стилизованными» рисунками, где у моделей обычно каша, тут всё прилично. Модель скоро могут выкатить в open-source.
Внутри — полный фарш: image-editing, перенос стилей, даже видео с аудиосинхрой заявлено. Всё это уже завезли в Higxfield, вместе с прошлым обновлением 2.5. Так что «нанобананиться» теперь можно в полный рост.
На 3D-фронте тоже зашевелилось Han 3.0 считалась «передовой», но теперь у неё два серьёзных конкурента.
— Triple 3.0 Ultra Mode — даёт просто безумную детализацию 3D-объектов.
— DMK/Hyper3D Gen-2 — тут уже магия: можно разбирать объекты на части, собирать обратно, готовить под 3D-печать. Для фигурок и прототипов — прям мечта.
Короче, гонка в 3D пошла не на шутку: от «вау, моделька» до полного пайплайна под печать и продакшн.
Все эти новости про новые модели — будь то видео, звук или генерация картинок или целых миров — показывают одно: контент создаётся всё быстрее, качественнее и с меньшими затратами.
Но у большинства экспертов остаётся главная проблема — как всё это упаковать в систему продаж, чтобы оно приносило доход, а не просто радовало глаз.
Поэтому если вы уже пробуете новые ИИ-модели, логичный следующий шаг — встроить их в воронку продаж своих знаний через бесплатный конструктор. Так ваши эксперименты превратятся в продажи, а продажи — в системный доход.
Моя ИИшка тоже развивается, чтобы бесплатно собирать вашу воронку продаж из 23 ключевых элементов: дизайн, лид-магниты, сценарии видео, чат-боты, продуктовую матрицу, тарифы и аналитику.
Там, где раньше требовались команда, месяцы работы и тысячи долларов, теперь всё делается за 30 минут с минимумом усилий.
И на этом новости нейросетей последней недели подходят к концу. Спасибо большое за ваш лайк, комментарий, подписочку. Сейчас реально релизы всё мощнее и мощнее. Я уже боюсь представить, что там через пару месяцев будет. Будем посмотреть