🤐Илья Суцкевер развел секретность в своем новой стартапе
У Wall Street Journal вышла статья про новый стартап Илья Суцкевера Safe Superintelligence. Это один из сооснователей OpenAI, который поругался с Сэмом Альтманом на тему безопасности искусственного интеллекта и ушел делать свой проект. Сейчас он вроде как собирает раунд — $1 млрд по оценке $30 млрд. Стартапу еще и года нет.
К сожалению, каких-то подробностей о том, чем конкретно они там в Safe Superintelligence занимаются, в статье нет. Разрабатывают безопасный суперинтеллект, как и говорилось при старте. Но есть любопытные подробности.
Офисы у Safe Superintelligence в Кремниевой долине и Тель-Авиве. В команде около 20 человек. При этом им рекомендуют не упоминать в LinkedIn, что они работают в Safe Superintelligence. Наверное, чтобы расспрашивать о подробностях не стали.
Особых звезд в команде стартапа почти нет. Как пишет WSJ, Суцкевер выбирает не опытных людей, которые могут легко уйти в другую компанию, а перспективных чуваков, для которых он будет скорее наставником.
Любопытный нюанс про кандидатов. Когда они приходят на собеседование, то их просят оставить смартфоны при входе в офис. Причем не просто сдать охраннику (или как там у них), а положить в клетку Фарадея, который блокирует все сигналы.
И про продукт. Safe Superintelligence не собирается выпускать никаких продуктов до того момента, пока не разработают суперинтеллект. Я так понимаю, что речь про тот самый AGI (Artificial General Intelligence). Над этой же задачей работают и OpenAI, и Google, и Anthropic.
Но Суцкевер вроде как заявил коллегам, что они не будут использовать те же методы, что использовались в OpenAI. Собеседники WSJ говорят, что он «определил другую гору, на которую нужно подняться». И вроде как там уже есть первые признаки перспективности.
@TheEdinorogBlog — тот самый канал про стартапы🦄
Подписывайтесь на Telegram-канал The Edinorog 🦄.