Сооснователь OpenAI Илья Суцкевер с партнёрами создал компанию Safe Superintelligence для разработки «безопасного суперинтеллекта»

Он объявил об уходе из OpenAI в мае 2024 года.

  • Суцкевер соосновал Safe Superintelligence вместе с бывшим главой отдела ИИ-разработок в Apple Дэниэлом Гроссом и ещё одним бывшим сотрудником OpenAI Дэниэлом Леви.
  • Миссия компании — создание «безопасного суперинтеллекта» (название фирмы с английского переводится точно так же). Это «единственная цель и единственный продукт», над которыми она будет работать. Это схоже с целью, ради которой когда-то создавалась OpenAI, отмечает Bloomberg.
  • У Safe Superintelligence уже есть офисы в Пало-Альто (США) и Тель-Авиве (Израиль). В объявлении о создании компании упоминаются инвесторы, но кто они и какую сумму от них привлекла фирма — не уточняется. Суцкевер отказался их раскрывать.
  • «Особая направленность» компании означает, что ей не придётся отвлекаться на «управленческие расходы или цикл выпуска продукции». На первое место Safe Superintelligence обещает ставить безопасность, но собирается развиваться «как можно быстрее».
  • Других деталей нет — например, будет ли компания придерживаться политики открытого исходного кода, как это изначально задумывалось в миссии OpenAI. Сейчас Safe Superintelligence набирает исследователей, готовых участвовать в разработке «безопасного суперинтеллекта».
Сэм Альтман (слева) и Илья Суцкевер в 2023 году. Фото: Reuters
Сэм Альтман (слева) и Илья Суцкевер в 2023 году. Фото: Reuters
  • Илья Суцкевер объявил об уходе из OpenAI в мае 2024 года, заявив, что будет заниматься проектом, который «очень важен для него лично».
  • В ноябре 2023 года совет директоров OpenAI уволил Сэма Альтмана с поста гендиректора. По данным источников СМИ, одну из ключевых ролей в увольнении сыграл именно Суцкевер. The Verge полагало, что в компании произошло столкновение двух сторон: продуктовой и научной.

  • Сотрудники получили два объяснения от Суцкевера: якобы Альтман «дал двоим людям один и тот же проект» и высказал двоим членам совета противоположные мнения об одном из сотрудников.

  • 505 из 700 работников OpenAI пригрозили перейти в Microsoft, если совет не уйдёт в отставку, а Суцкевер признался, что сожалеет о причастности к действиям совета. Через четыре дня после решения OpenAI заявила, что вернёт Альтмана на пост гендиректора.

2222
63 комментария

если будет создан опасный супер интеллект, зачем нужен безопасный?

10
Ответить

Чтобы они пиздиться начали.

34
Ответить

Кино снять. Типа Джарвис/Вижн против Алтрона.

8
Ответить

Чтобы делать безопасный контент, безопасные картиночки, всем блогерам в помощь))

1
Ответить

Для баланса

Ответить

Хорошо. Человек, учёный, сооснователь, игравший решающую роль в успехе OpenAI, обманутый коммерсом Альтманом, покинул эту структуру и будет заниматься тем, что ему интересно и важно.

14
1
Ответить

Вот это круто, чувствую намечается что-то нереальное!

7
Ответить