Антропик заплатит 15000$ тому, кто найдёт уязвимости в её ИИ
Речь идёт о уязвимостях типа “universal jailbreak”. Эти методы могут последовательно обходить защиту ИИ в таких областях высокого риска, как химические, биологические, радиологические и ядерные угрозы, а также кибербезопасность.
Привет, меня зовут Рустам и у меня есть свой ИИ инструмент для лидогенерации в телеграме, а в этом блоге я ежедневно публикую новости про ИИ. Сегодня речь пойдёт про Antropic.
Стартап по искусственному интеллекту Anthropic, который поддерживает Amazon (и о котором я косвенно уже рассказывал), запустил расширенную программу вознаграждения, предлагая денежное вознаграждение за определение критических уязвимостей в своих системах искусственного интеллекта.
Anthropic приглашает этичных хакеров (“белых шляп”) протестировать свою систему безопасности перед публичным внедрением, чтобы предотвратить потенциальные эксплойты, которые могут привести к неправильному и вредоносному использованию ее моделей ИИ. Таким образом, сторонние специалисты по кибербезопасности смогут получить до 15000 долларов.
Кстати, такие гиганты, как OpenAI и Google, также применяют программы вознаграждений, но в основном фокусируются на выявление традиционных уязвимостей в ПО, а не на специфические для индустрии ИИ эксплойты. Напротив же, Anthropic открыто заявляет о своей нацеленности на прозрачность, устанавливая новые стандарты в вопросе безопасности моделей.
“Быстрое развитие возможностей моделей ИИ требует столь же быстрого развития протоколов безопасности. Работая над разработкой следующего поколения наших систем защиты ИИ, мы расширяем нашу программу вознаграждения за ошибки, чтобы представить новую инициативу, направленную на поиск недостатков для предотвращения нецелевого использования наших моделей,”
Это событие — отличный шанс для частных хакеров, чтобы заработать деньги и внести свой вклад в развитие ИИ. Для участия в ней нужно было заполнить форму до пятницы, 16 августа. Теперь нам остаётся следить за ходом событий, и навряд ли это была одноразовая акция. Кто знает, может, это станет обычной практикой среди компаний, разрабатывающих модели ИИ?
Подписывайтесь, чтобы оставаться в курсе новостей в сфере ИИ
Это эссе – рефлексия на тему общего искусственного интеллекта (AGI). Он уже появляется на горизонте, и поэтому Альтман считает важным понимать, в каком моменте мы находимся. И эти размышления кажутся и обоснованными, и фантастичными одновременно.
Возможно, через десятилетие любой человек на Земле сможет добиться большего, чем самый влиятельный человек сегодня.
Прогноз от MIT Technology Review. Расскажу, кто уже являются первопроходцами и в каких направлениях ждать новостей.
Когда стоит задача вернуть игроков и привлечь новых, важно не просто сфокусироваться на одном канале. В этой кампании для battle royale игры на ПК мы использовали подход, который сочетает лучшие традиции performance-рекламы и практики работы с программатик-трафиком. Через точную настройку таргетинга и правильную работу с креативами удалось не тольк…
Недавно наткнулся на интересное интервью с руководителем продукта OpenAI, и одна мысль крепко засела в голове: большинство людей судит об искусственном интеллекте, даже не попробовав с ним поработать. Это все равно что обсуждать вкус экзотического фрукта, только глядя на его фотографии.
Жаркие споры вокруг успеха DeepSeek продолжаются. Подведем некоторые промежуточные итоги
Microsoft и OpenAI расследуют возможную кражу данных у стартапа DeepSeek
Российский бизнес, ориентированный на международную аудиторию, постоянно сталкивается с финансовыми ограничениями: иностранные онлайн-банки и платежные системы отказываются работать с high-risk проектами, да и России в принципе нет в выпадающих списках большинства популярных сервисов. Эта частая проблема в том числе и для SaaS-сервисов.
Вы устали платить большие деньги за ИИ-сервисы, которые не оправдывают ожиданий? Или вам надоели бесконечные подписки и скрытые платежи за «инновационные» технологии, которые на деле не так уж эффективны? В этой статье я расскажу, как китайская компания DeepSeek поменяла правила игры, предложив мощную модель ИИ за меньшую цену и без скрытых затрат.…
Компания Anthropic представила новую технологию Constitutional Classifiers, разработанную для защиты языковых моделей от попыток обхода ограничений (так называемых jailbreak-атак). Эта система представляет собой дополнительный слой безопасности, который анализирует входные запросы и выходные ответы модели, выявляя попытки заставить ИИ генерировать…
Все самое интересное из мира кибербезопасности /** с моими комментариями
Искусственный интеллект снова удивляет. Новый ИИ-инструмент от Google под названием "co-scientist" смог разгадать сложную проблему, связанную с устойчивыми к антибиотикам супербактериями, всего за два дня. Для сравнения, группе ученых из Имперского колледжа Лондона под руководством профессора Хосе Пенадеса потребовалось более десяти лет, чтобы прий…