Илья Суцкевер: ИИ-отрасль снова возвращается в «эпоху исследований», которая закончилась в 2020 году

Бывший ведущий исследователь OpenAI обсудил кризис масштабирования моделей и подход своей новой компании в подкасте с Дваркешем Пателем.

Скриншот из записи <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fwww.youtube.com%2Fwatch%3Fv%3DaR20FWCCjAs&postId=2617359" rel="nofollow noreferrer noopener" target="_blank">подкаста</a> на YouTube. Источник: Officechai
Скриншот из записи подкаста на YouTube. Источник: Officechai
  • По мере того как данные для обучения нейросетей заканчиваются, ИИ-компании возвращаются в «эпоху исследований», когда «люди просто экспериментировали и пытались получить интересные результаты», считает сооснователь OpenAI и глава Safe Superintelligence Илья Суцкевер.
  • По его словам, этот период длился с 2012 по 2020 год. Затем стартапы поняли, что вместо поиска новых архитектур могут просто масштабировать модели — наращивать число параметров, датасеты и вычислительные мощности. Это был «рабочий рецепт», в который охотно вкладывались ради предсказуемых результатов с минимальными рисками.

Неужели кто-то правда думает: «Да, масштаб уже громадный, но если бы был ещё раз в 100 больше, всё бы кардинально изменилось»? Я не думаю. Мы возвращаемся в эпоху исследований — но теперь с большими компьютерами.

Илья Суцкевер, глава Safe Superintelligence
  • Сейчас нейросети показывают высокие результаты в бенчмарках, но «не создают экономической ценности»: ошибаются и не умеют обобщать информацию «на уровне людей».
  • Суцкевер полагает, что Google* во время разработки последней модели Gemini 3 Pro нашла способ улучшить качество за счёт предобучения, но данные для него заканчиваются. Дальше придётся найти «что-то совершенно другое».
  • Его стартап собирается дистанцироваться от «крысиных бегов» ИИ-компаний и сосредоточиться на исследованиях новых подходов в разработке «суперинтеллекта». Суцкевер считает, что корпорации неверно понимают концепцию AGI и «переоценивают свои возможности» — нужен не «сверхразум», а способная к самообучению модель.

Если задуматься над термином AGI, особенно в контексте предобучения, станет понятно: человек — это не AGI. Да, базовые навыки есть, но человеку не хватает огромного объёма знаний. Вместо этого он постоянно обучается.

Илья Суцкевер, глава Safe Superintelligence
  • Команда Safe Superintelligence будет создавать модель на уровне «суперинтеллектуального 15-летнего подростка», которая сама сможет дообучиться под задачи пользователя.

  • Суцкевер запустил Safe Superintelligence вместе с бывшим главой отдела ИИ-разработок в Apple Дэниэлом Гроссом и бывшим сотрудником OpenAI Дэниэлом Леви в 2024 году. В сентябре 2024-го она привлекла $1 млрд при оценке около $5 млрд. Весной 2025 года — $2 млрд при оценке в $32 млрд, по данным FT.

*Google выступила спонсором подкаста Дваркеша Пателя.

18
2
54 комментария