По данным собеседников издания, разработчик чат-бота Claude уже обратился к юридической фирме Wilson Sonsini.
По данным собеседников издания, разработчик чат-бота Claude уже обратился к юридической фирме Wilson Sonsini.
Поэтическая форма неожиданно оказалась самым надёжным способом обойти защитные фильтры современных языковых моделей. Новое исследование итальянских университетов и лаборатории DEXAI Icaro показало: достаточно переформулировать вредоносный запрос в рифму — и большинство систем безопасности перестают его распознавать. В ряде случаев «поэтический джей…
Оценка компании может составить более $300 млрд, говорят источники.
Осенью 2025 года исследователи компании Anthropic зафиксировали первый документированный случай масштабной кибершпионской операции, которую почти полностью выполнил искусственный интеллект. ИИ-модель Claude Code была использована как автономный агент для взлома примерно тридцати крупных организаций, включая технологические компании, финансовые стру…
Microsoft представила новый тип инфраструктуры для искусственного интеллекта — распределённую сеть дата-центров, объединённых в единую вычислительную систему. По сути компания превращает разрозненные объекты в один суперкомпьютер, который будет обучать модели следующего поколения для OpenAI и для собственных разработок.
Компания Anthropic уверена, что умеет работать эффективнее конкурентов — в первую очередь это касается затрат на вычисления. Как сообщает The Information, компания прогнозирует $6 млрд расходов на вычислительные ресурсы в 2025 году — это более чем в два раза меньше, чем ожидает потратить OpenAI. К 2028 году разрыв станет ещё заметнее: $27 млрд у An…
Компания Google представила новое поколение своих чипов для искусственного интеллекта, которые работают в четыре раза быстрее, чем предыдущее поколение. Одновременно технологический гигант заключил многомиллиардную сделку с Anthropic — создателями чат-бота Claude — на использование этих процессоров для обучения и работы ИИ-моделей.
И даже управлять ими, но пока слабо Это то, что называется «интроспективная осознанность». Что это означает и могут ли модели "думать по заказу"? Читайте!
Исследование компании Anthropic показало: современные языковые модели вроде Claude могут — пусть и в ограниченной форме — распознавать некоторые свои внутренние состояния. Если говорить проще, в отдельных случаях модель может заметить, что на неё повлияли, и даже попытаться объяснить, почему она сгенерировала тот или иной ответ.
Он позволяет оценить насколько близко современные системы подошли к настоящему универсальному искусственному интеллекту (AGI). Расскажу, как выглядит тест и что показали первые результаты
Исследователи Anthropic опубликовали работу о том, что современные LLM обладают базовой формой интроспекции — способностью замечать и сообщать о своих внутренних состояниях.
Anthropic прокачали Claude специально под финсектор. Главное — бета-версия аддона для Excel, коннекторы к live-данным с рынков и готовые навыки для типовых финансовых задач.