🤐Илья Суцкевер развел секретность в своем новой стартапе

У Wall Street Journal вышла статья про новый стартап Илья Суцкевера Safe Superintelligence. Это один из сооснователей OpenAI, который поругался с Сэмом Альтманом на тему безопасности искусственного интеллекта и ушел делать свой проект. Сейчас он вроде как собирает раунд — $1 млрд по оценке $30 млрд. Стартапу еще и года нет.

К сожалению, каких-то подробностей о том, чем конкретно они там в Safe Superintelligence занимаются, в статье нет. Разрабатывают безопасный суперинтеллект, как и говорилось при старте. Но есть любопытные подробности.

Офисы у Safe Superintelligence в Кремниевой долине и Тель-Авиве. В команде около 20 человек. При этом им рекомендуют не упоминать в LinkedIn, что они работают в Safe Superintelligence. Наверное, чтобы расспрашивать о подробностях не стали.

Особых звезд в команде стартапа почти нет. Как пишет WSJ, Суцкевер выбирает не опытных людей, которые могут легко уйти в другую компанию, а перспективных чуваков, для которых он будет скорее наставником.

Любопытный нюанс про кандидатов. Когда они приходят на собеседование, то их просят оставить смартфоны при входе в офис. Причем не просто сдать охраннику (или как там у них), а положить в клетку Фарадея, который блокирует все сигналы.

И про продукт. Safe Superintelligence не собирается выпускать никаких продуктов до того момента, пока не разработают суперинтеллект. Я так понимаю, что речь про тот самый AGI (Artificial General Intelligence). Над этой же задачей работают и OpenAI, и Google, и Anthropic.

Но Суцкевер вроде как заявил коллегам, что они не будут использовать те же методы, что использовались в OpenAI. Собеседники WSJ говорят, что он «определил другую гору, на которую нужно подняться». И вроде как там уже есть первые признаки перспективности.

@TheEdinorogBlog — тот самый канал про стартапы🦄

Подписывайтесь на Telegram-канал The Edinorog 🦄.

Начать дискуссию