Microsoft официально включается в гонку за создание искусственного суперинтеллекта, только «гуманистического»
Возглавлять новое направление под названием Microsoft AI Superintelligence будет Мустафа Сулейман — сооснователь DeepMind и бывший руководитель стартапа Inflection AI. В центре проекта — идея создания мощных ИИ-моделей, которые будут развиваться с приоритетом на интересы и безопасность человека.
Новый шаг Microsoft следует за изменением условий партнёрства с OpenAI, по которым ранее компания не могла самостоятельно заниматься разработкой AGI — искусственного суперинтеллекта общего назначения. Теперь Microsoft открыто заявляет о намерении развивать собственные «фронтирные модели», то есть ИИ, способный к обобщённому мышлению на уровне человека или выше.
«Люди важнее ИИ» — так Сулейман сформулировал идеологию будущих разработок в интервью Axios. Он подчёркивает, что цель команды — не просто максимизировать производительность моделей, а спроектировать систему, в которой ИИ будет подчинён человеку, не нарушая его лидерскую позицию в технологической иерархии.
В центре внимания Microsoft — создание так называемого гуманистического суперинтеллекта, в противоположность безоглядному наращиванию мощности ИИ без учёта последствий. Это включает в себя:
- акцент на безопасность и контроль;
- развитие моделей с учётом человеческих потребностей и ценностей;
- долгосрочный подход без спешки в достижении AGI любой ценой.
Сулейман также отметил, что не считает себя частью лагеря «опасающихся» или «замедляющих» прогресс. По его словам, он и команда — выступают за быстрый прогресс, но с оговорками: «Мы верим в силу науки и технологий, и хотим, чтобы развитие шло быстро, но не без ограничений».
На фоне усиливающейся конкуренции с OpenAI, Google, Anthropic, Meta и китайскими ИИ-центрами Microsoft делает ставку на собственную инициативу. Компания уже разрабатывает собственные языковые и мультимодальные модели, но теперь речь идёт о создании принципиально новых систем.
Тем не менее, Сулейман признаёт, что до появления полноценных моделей нового поколения может пройти год или два. Работа только начинается, и первая задача — собрать исследовательскую команду и задать верное направление.
Microsoft уже заявила, что не будет игнорировать такие рисковые, но перспективные технологии, как recursive self-improvement (рекурсивное самоулучшение ИИ), при которой модель обучается на результатах собственной работы. Это направление сулит быстрый прогресс, но может породить трудности в обеспечении безопасности.
Подход Microsoft, ориентированный на этику и человекоцентричность, может оказаться менее эффективным в краткосрочной перспективе. Пока регуляторные органы во многих странах отходят от акцентов на безопасность, технологическая гонка продолжается, и конкуренты не всегда придерживаются подобных ограничений.
Тем не менее, Сулейман уверен, что именно сбалансированный подход даст Microsoft преимущество в долгосрочной перспективе — особенно на фоне растущего общественного интереса к вопросам ответственности и прозрачности в развитии ИИ.
Как вы думаете, можно ли создать более гуманный ИИ?