Компания Anthropic изучила разговоры пользователей с Claude: на самом деле романтических бесед намного меньше, чем ожидалось

На фоне громких историй в медиа про влюблённость в чат-ботов и эмоциональную зависимость от ИИ, компания Anthropic опубликовала исследование, которое показывает: в случае с её ассистентом Claude такие сценарии крайне редки. Из почти 4,5 миллиона диалогов, проанализированных с помощью анонимизированного инструмента Clio, только 2,9% можно отнести к…

Большинство ИИ-моделей склонны к шантажу в определённых условиях

И это не баг, а фича, утверждают исследователи. Расскажу, как пришли к такому выводу пришли, и что предлагается делать

Показатели шантажа в смоделированной среде с наличием конфликта интересов. <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fwww.anthropic.com%2Fresearch%2Fagentic-misalignment&postId=2069567" rel="nofollow noreferrer noopener" target="_blank">Источник</a>
2

Иллюзия на иллюзию иллюзии

О чем это? Некоторое время назад Apple сделал громкое заявление, которое взбудоражило сообщества ИИ исследователей: современные рассуждающие модели (LRM) таковыми не являются (The Illusion of Thinking). Исследование породило весьма полезную дискуссию, ответ не заставил себя ждать: буквально через несколько дней вышел ответ (написанный участием LRM)…

<a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fdocs.google.com%2Fdocument%2Fd%2F1Eye67u7ip2JdQqawjZugoC5RTvhLjznMt0mBQURljdo%2Fedit%3Ftab%3Dt.0&postId=2055628" rel="nofollow noreferrer noopener" target="_blank">Источник</a>

В моделях искусственного интеллекта живут разные черты личности

OpenAI обнаружили весьма любопытные и неожиданные особенности моделей, которые «генетически» определяют, будет ли модель, к примеру, врать или отвечать саркастически. Можно ли эти плохие черты починить? Читайте!

Пример "внезапного несоответствия" модели. <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fopenai.com%2Findex%2Femergent-misalignment%2F&postId=2061851" rel="nofollow noreferrer noopener" target="_blank">Источник</a>
1

Запасаемся попкорном

Вышел ответ на обвинения со стороны Apple в отсутствии у LLM рассуждающих способностей, и по слухам – ответ написан с участием самой LLM (Anthropic). Спор выходит далеко за пределы обсуждения методологии, и напрямую связан с вопросом: как быстро мы получим суперинтеллект?

Запасаемся попкорном

Apple: современные LLM не способны рассуждать

Серьезный вердикт от Apple, который еще громче звучит с учетом того, что у Apple нет своих LLM. Расскажу, на основе чего Apple пришли к такому выводу (может, они тоже хайпуют?), что об этом думают в сообществе, и что с этим делать (если это так).

<a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fml-site.cdn-apple.com%2Fpapers%2Fthe-illusion-of-thinking.pdf&postId=2037939" rel="nofollow noreferrer noopener" target="_blank">Источник</a>
2

Новое исследование: LLM понимают, когда их оценивают

Это какие-то хитрые бестии! – скажете вы, и будете правы. На самом деле, этот вывод напрашивался из других недавних исследований. Из чего следует такой вывод и какое практическое значение имеет это значение? Читайте!

Точность оценки моделей, что их оценивают, в разного типа заданиях. <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Farxiv.org%2Fpdf%2F2505.23836&postId=2031963" rel="nofollow noreferrer noopener" target="_blank">Источник</a>
3

Тайный ИИ: треть сотрудников скрывает, что используют ChatGPT на работе

Использование генеративного ИИ вроде ChatGPT стало для многих работников частью ежедневной рутины — но не все готовы об этом говорить. Согласно недавнему исследованию Ivanti, 42% офисных сотрудников применяют ИИ в работе, и каждый третий из них предпочитает делать это незаметно для окружающих.

ИИ снова придумал информацию: на этот раз в глупое положение попали крупные издательства

В приложении к Chicago Sun-Times в минувшее воскресенье был опубликован список «летнего чтения 2025 года». Он выглядел как подборка рекомендаций: 15 книг, краткие описания, узнаваемые авторы. Вот только большая часть этих книг не существует.

1

Google опубликовала руководство по созданию промптов для языковых моделей: разбираемся что в нем самое главное

Google опубликовала подробный технический документ о том, как правильно взаимодействовать с языковыми моделями. Автор — инженер Google Cloud Ли Бунстра. Это 69 страниц приёмов и практик, собранных в единый справочник по prompt engineering. Документ быстро разошёлся по соцсетям и стал ориентиром для разработчиков, исследователей и продуктовых команд…

1

SAE Match: новый шаг к прозрачному искусственному интеллекту

SAE Match: новый шаг к прозрачному искусственному интеллекту

Как заработать с помощью генерации изображений GPT 4o

Как заработать с помощью генерации изображений GPT 4o