OpenAI нанимает человека для расследования деятельности своих сотрудников

В OpenAI угроза безопасности может исходить изнутри. Недавно компания опубликовала список вакансий для технического инсайдерского исследователя рисков, чтобы «укрепить нашу организацию от внутренних угроз безопасности».

OpenAI нанимает человека для расследования деятельности своих сотрудников

В объявлении говорится, что в обязанности входит анализ аномальной активности, выявление и устранение внутренних угроз, а также сотрудничество с отделом кадров и юридическим отделом для «проведения расследований подозрительной активности».

Представитель OpenAI заявил, что компания не комментирует списки вакансий.

OpenAI уже находится в центре жарких дебатов об ИИ и безопасности. Сотрудники OpenAI и американские законодатели выразили обеспокоенность по поводу того, делает ли компания достаточно для того, чтобы ее мощные технологии не использовались во вред.

В то же время OpenAI заявила, что видела, как государственные субъекты из Китая, России и Ирана пытались использовать ее модели ИИ для того, что она называет злонамеренными действиями. Компания заявляет, что пресекла эти действия и удалила учетные записи, связанные с вовлеченными сторонами.

Компания OpenAI сама стала целью злоумышленников в 2023 году, когда хакеры взломали ее внутреннюю систему обмена сообщениями. Об этом инциденте стало известно после того, как два человека слили информацию в The New York Times.

Помимо хакерских группировок и авторитарных правительств, эта вакансия, по-видимому, указывает на то, что OpenAI обеспокоена угрозами, исходящими от ее собственных сотрудников, хотя неясно, какого именно рода угрозы OpenAI ищет.

Одна из возможностей заключается в том, что компания стремится защитить коммерческие секреты, лежащие в основе ее технологий. В публикации указано, что найм OpenAI внутреннего следователя по рискам является частью добровольных обязательств по безопасности ИИ, которые она взяла на себя перед Белым домом, одним из которых было инвестирование в «меры защиты от внутренних угроз для защиты фирменных и нераспространенных весов моделей».

В открытом письме в июне прошлого года нынешние и бывшие сотрудники OpenAI заявили, что они чувствовали себя заблокированными, чтобы высказывать опасения по поводу безопасности ИИ. В письме OpenAI призвали гарантировать «право предупреждать» общественность об опасностях продуктов OpenAI. Неясно, будет ли этот тип разоблачения охвачен «контролем предотвращения потери данных», за реализацию которого будет отвечать следователь по рискам.

1515
Начать дискуссию