Anthropic вводит новые правила: переписки с Claude будут храниться 5 лет и использоваться для тренировки ИИ
Компания Anthropic объявила о серьёзных изменениях в политике работы с пользовательскими данными. Теперь все пользователи чат-бота Claude — включая бесплатные и платные тарифы, а также сервис Claude Code — должны до 28 сентября выбрать, согласны ли они делиться своими переписками для обучения моделей.
Если пользователь не откажется, его чаты и кодовые сессии будут храниться до пяти лет и использоваться для улучшения работы Claude. Ранее компания заявляла, что переписки автоматически удаляются через 30 дней, а в отдельных случаях могли сохраняться до двух лет. Теперь срок хранения увеличен значительно.
В то же время бизнес-клиенты, использующие Claude Gov, Claude for Work, Claude for Education или API-доступ, остаются вне новой политики — по аналогии с тем, как OpenAI исключает корпоративных клиентов из обучения на их данных.
Официально Anthropic объясняет нововведение желанием «улучшить безопасность и качество моделей», подчеркнув, что данные пользователей помогают системам точнее выявлять вредоносный контент и совершенствовать навыки анализа, рассуждения и программирования.
Но за пределами официальной формулировки наблюдатели видят и другую причину: компании, работающие с большими языковыми моделями, остро нуждаются в огромных массивах реальных данных, чтобы не отставать в конкуренции с OpenAI и Google. Миллионы живых взаимодействий с Claude — именно тот ресурс, который может укрепить позиции Anthropic на рынке.
Эти изменения вписываются в более широкий тренд. В индустрии ИИ правила хранения и использования пользовательских данных пересматриваются всё чаще. OpenAI, например, в США столкнулась с судебным требованием хранить все переписки ChatGPT, включая удалённые, что вызвало острые споры о конфиденциальности.
Эксперты отмечают, что столь масштабные изменения часто остаются малозаметными для широкой аудитории: многие пользователи не знают, что условия использования уже изменились. Это усиливает напряжение вокруг темы согласия и прозрачности, которая становится одной из ключевых для всей отрасли.
А вы согласились бы, чтобы ваши переписки с ИИ хранились так долго и использовались для обучения модели?