Илья Суцкевер: создатель ChatGPT против своего детища (история $32-миллиардного бунта)
Уже несколько лет наблюдаю за нашим гением из Нижненго Новгорода, Ильей Суцкевером. От авторства фундаментальных научных статей до сооснования исследовательской организации, создавшей ChatGPT, мало кто оказал такое влияние на развитие искусственного интеллекта и на дискуссию о его ответственном применении, как Илья Суцкевер. Он стал одним из ключевых архитекторов современной революции ИИ. Его имя неразрывно связано с созданием ChatGPT, развитием глубокого обучения и острыми дискуссиями о безопасности искусственного интеллекта.
Будучи аспирантом Университета Торонто, Суцкевер стал соавтором одной из самых цитируемых академических работ XXI века и с тех пор играет ключевую роль в продвижении технологий, которые меняют экономику, общество и повседневную жизнь людей.
6 июня 2025 года за вклад в основание отрасли и глобальное влияние как учёного и визионера ИИ, а также за выдающуюся деятельность в качестве сторонника безопасного и ответственного искусственного интеллекта, Суцкевер получит почётную степень доктора наук (Doctor of Science, honoris causa) Университета Торонто.
Путь к вершинам технологического мира
Научная карьера Суцкевера началась в Университете Торонто под руководством Джеффри Хинтона, одного из отцов-основателей современного ИИ. Вместе с Алексом Крижевским и Джеффри Хинтоном он создал AlexNet — сверточную нейронную сеть, которая произвела революцию в компьютерном зрении. Это достижение заложило фундамент для всего последующего развития глубокого обучения.
В 2015 году Суцкевер стал соучредителем OpenAI, компании, которая должна была обеспечить безопасное развитие искусственного интеллекта. Он занимал должность главного научного сотрудника и считается ключевой фигурой в разработке ChatGPT. Под его руководством команда OpenAI создала технологии, которые изменили представление о возможностях машинного обучения.
Корпоративный конфликт и вопросы безопасности
В конце 2023 года Суцкевер оказался в центре корпоративного конфликта в OpenAI, став одним из инициаторов временного отстранения Сэма Альтмана от должности генерального директора. Совет директоров, в который входил Суцкевер, объявил об увольнении Альтмана, заявив, что "он не был последователен в общении с советом".
Этот конфликт отражал глубокие разногласия в стратегии развития компании. Суцкевер и другие участники считали, что OpenAI пренебрегает своим изначальным фокусом на безопасности в пользу коммерциализации. Через неделю Альтман был восстановлен в должности, а Суцкевер покинул совет директоров.
Safe Superintelligence Inc: новая глава
В мае 2024 года Суцкевер покинул OpenAI, а в июне объявил о создании Safe Superintelligence Inc. (SSI) вместе с Даниэлем Гроссом и Даниэлем Леви. По словам Суцкевера, создание безопасного сверхинтеллекта является "важнейшей технической проблемой нашего времени".
Новая компания радикально отличается от OpenAI по своему подходу. SSI имеет "одну цель и один продукт: безопасный суперинтеллект", и не будет заниматься ничем другим до его создания. Компания намеренно избегает "управленческих накладных расходов или циклов выпуска продукции", изолируя вопросы безопасности от "краткосрочного коммерческого давления".
Феноменальный рост инвестиций
Финансовые показатели SSI демонстрируют беспрецедентное доверие инвесторов к команде Суцкевера. В сентябре 2024 года компания привлекла $1 миллиард от ведущих венчурных фондов, включая Sequoia Capital, Andreessen Horowitz, DST Global и SV Angel.
Еще более впечатляющими стали результаты следующего раунда финансирования. В марте 2025 года SSI привлекла дополнительные $2 миллиарда при оценке в $32 миллиарда. Это в шесть раз превышает предыдущую оценку в $5 миллиардов от сентября 2024 года. Поразительно, что компания достигла такой оценки, несмотря на отсутствие доходов и штат всего около 20 сотрудников.
Технологические прогнозы и видение будущего
Суцкевер регулярно делится своими прогнозами о развитии ИИ, и его предсказания внимательно изучает весь технологический мир. На 2025 год он прогнозирует появление сложных "агентных" систем ИИ, способных к самостоятельному принятию решений и рассуждению.
Ученый сравнил данные с полезными ископаемыми, отметив, что "как нефть является конечным ресурсом, так и объем контента в интернете ограничен". По его мнению, преодолеть эти ограничения помогут инновации в области генерации данных самими системами ИИ.
Суцкевер предсказывает "тысячекратное" улучшение здравоохранения и разработку лекарств от множества болезней благодаря сверхинтеллекту. Однако он также подчеркивает серьезные риски, связанные с неконтролируемым развитием такой технологии.
Философия безопасности ИИ
Подход Суцкевера к безопасности ИИ основан на фундаментальном понимании рисков сверхинтеллекта. Он убежден, что "существующие методы обеспечения безопасности ИИ, основанные на контроле со стороны человека, не будут работать в случае сверхинтеллекта, поскольку люди просто не смогут понять и оценить действия ИИ такого уровня".
По мнению Суцкевера, необходима "новая парадигма обеспечения безопасности ИИ, основанная на фундаментальных принципах, заложенных в саму архитектуру сверхинтеллекта". Именно эта философия лежит в основе работы SSI.
Бизнес-модель будущего
SSI представляет уникальную бизнес-модель в технологической индустрии. По словам сооснователя Даниэля Гросса, "важно окружить себя инвесторами, которые понимают, уважают и поддерживают нашу миссию — сделать прямой выстрел к безопасному суперинтеллекту и потратить несколько лет на R&D нашего продукта, прежде чем вывести его на рынок".
Эта стратегия кардинально отличается от подхода большинства технологических стартапов, которые стремятся к быстрой монетизации. SSI готова инвестировать годы в исследования без получения промежуточной прибыли, концентрируясь исключительно на достижении своей главной цели.
Успех SSI может стимулировать другие компании пересмотреть свои приоритеты и уделить больше внимания безопасности в разработке ИИ. В условиях растущих опасений по поводу потенциальных рисков неконтролируемого развития искусственного интеллекта, подход Суцкевера может определить стандарты индустрии на годы вперед.
Ставка на будущее человечества
Илья Суцкевер представляет редкое сочетание технического гения и этической ответственности в мире высоких технологий. Его переход от OpenAI к созданию SSI символизирует важную эволюцию в подходе к развитию ИИ — от стремления к быстрому коммерческому успеху к долгосрочной ответственности перед человечеством.
В эпоху, когда искусственный интеллект становится определяющей технологией нашего времени, фигуры подобные Суцкеверу играют ключевую роль в обеспечении того, чтобы эта революция служила интересам всего человечества. Его работа в SSI может стать решающим фактором в создании безопасного пути к эре суперинтеллекта.
Всем добра и здоровья! И эффективного партнерства ИИ и естественного разума.