Александр Бирюков

+45
с 2020

Руковожу ИИ командами, чтобы решать бизнес-задачи. Тестирую ИИ агентов и пишу об этом в Telegram: Заместители (https://t.me/+hvhcjsMA7rQ3MDMy)

27 подписчиков
29 подписок
Пост CTO Hugging Face с анонсом нового репозитория

Hugging Face — крупнейший репозиторий всего опенсорсного в мире AI. Если дата саентисту нужны датасеты или модельки — он идет в первую очередь туда, а только потом погружается в глубокий рисерч по статьям и тд. Год назад HF запустили Spaces — по сути развернутые демки моделей на мощностях самих HF.

В 2017 году Google опубликовали статью Attention Is All You Need — она положила начало современным LLM, построенным на трансформерах. Но, кажется, из этой технологии высосали все, что могли. Уже некоторое время ученые трудятся…

1

Вот так на недельку отлучился и бац бац бац… все вокруг понакидали ништяков. Лишний раз доказывает бешеный темп и остроту конкуренции, в которых живут разработчики AI. Быстренько с вами наверстаем по ключевым событиям. Но самое важно обсудим в конце — появление AAIF!

Модель за моделью... и AAIF

Китайцы продолжают наваливать (потенциально) годный опенсорс. LobeChat — опенсорс платформа, на которой можно (загибайте пальцы):

  • создавать собственных агентов
  • подключать ч…

Дядя Сэм только что выкатил новую серию моделей GPT-5.2 в следующих версиях:

Курс AI Foundations сначала обкатают в закрытом режиме с рядом американских университетов и компаний в течение пары месяцев. Потом он будет раскрыт для более широкой аудитории. Он будет встроен прямо в ChatGPT. По результатам прохождения курса будет выдан сертификат. Деталей о длине и содержании курса пока нет.

OpenAI запускает собственные курсы с сертификатом по AI

Продолжаем погружаться в мир AI агентов 😎

Учимся делать мультиагентную систему за 1 вечер
The state of enterprise AI: что узнали в OpenAI про 1 миллион своих корпоративных клиентов

OpenAI опубликовал новый отчет об использовании их моделей в Enterprise секторе. Он основан на:

Вайб-ЛЛМинг! Hugging Face сделали AI агента, который сам обучает LLM модели

Теперь хватит минимальных навыков работы с кодом, чтобы обучить свою LLM.

Сэм Альтман похоже слегка психанул после выхода Gemini 3 и Claude Opus 4.5, которые догнали и перегнали GPT-5.1. А потом и другие стали подтягиваться.

Согласно WSJ он сделал внутреннюю рассылку, в которой говорится о необходимости отложить все другие проекты:

3

Долгосрочная кросс-чатовая память подъехала в Perplexity. Функция не новая для того же ChatGPT. Но в Perplexity она заиграла новыми красками.

Пр…
Обзор Orchestrator-8B от NVIDIA.

NVIDIA придумала новый метод обучения моделей-оркестраторов, которые эффективно вызывают тулзы и LLM для решения любых задач. Метод окзался настолько крут, что на бнчмарках типа Humanity’s Last Exam (HLE) — обогнал GPT-5 (замеряли раньше выхода Gemini 3 и GPT-5.1).