Что в чёрном ящике?
Пока весь мир обсуждает рекламную войну между Anthropic и OpenAI, мы посмотрим на кое-что поинтереснее.Три слоя непрозрачности ИИ — и почему вас должен волновать каждый из них
Начнем с новостей, которые шумят сегодня 5.02.2026
- Anthropic, создатели Claude, выкупили слот на Super Bowl за несколько миллионов долларов, чтобы высмеять главного конкурента. В ролике показали пользователя ChatGPT, которому посреди важного разговора вылезает реклама кроссовок. Посыл прозрачен: OpenAI превращает своего ассистента в рекламную площадку, а мы так не делаем. Сэм Альтман не выдержал и публично назвал Anthropic «авторитарной компанией, которая никогда не создаст AGI».
- Google тем временем отчиталась о рекордных результатах: годовая выручка впервые превысила $400 миллиардов, а на развитие ИИ компания готова потратить $185 миллиардов в этом году. Это вдвое больше, чем в 2025-м. Основной фокус: модели Gemini, собственные чипы и облачные сервисы, где ИИ уже приносит ощутимую прибыль.
- А вирусный ИИ-агент OpenClaw, который за два месяца набрал 148 000 звёзд на GitHub и обещал стать персональным ассистентом мечты, столкнулся с серьёзными проблемами. За четыре дня исследователи обнаружили 386 вредоносных навыков на платформе расширений, а тысячи пользователей оказались жертвами утечек данных.
Все эти новости объединяет тот факт, что корпорации борются за ваше внимание. Но за этим информационным шумом скрывается кое-что по-серьёзнее.
Когда мы говорим об ИИ, мы имеем дело не с одним, а с тремя чёрными ящиками. Первый: на чём эти модели обучали. Второй: что они собирают о вас прямо сейчас. Третий: что ИИ-агенты делают с вашими данными между собой.
И пока законодатели пытаются приоткрыть первый ящик, второй и третий уже работают на полную мощность.
🧰 Ящик первый: на чём вас обучили?
22 января 2026 года в Конгрессе США произошло событие, которое российские СМИ не заметили. Конгрессмены Мадлен Дин и Натаниэль Моран внесли двухпартийный законопроект TRAIN Act (H.R. 7209) — первую серьёзную попытку заглянуть внутрь того, как создаются ИИ-модели.
Суть проста: если вы автор, художник, журналист и подозреваете, что ваша работа использовалась для обучения ИИ, вы можете через суд потребовать раскрытия информации. При отказе компании автоматически возникает презумпция копирования. Бремя доказывания переворачивается.
Почему это важно?
Потому что сейчас никто не знает, на чём обучены крупнейшие модели мира. Буквально — никто. Генеративные модели пожирают интернет целиком. Тами датасет Common Crawl из миллиардов веб-страниц. И 5 миллиардов пар «изображение + текст» на AION-5B. И даже Books3 — миллионы книг, многие из которых пиратские. Добавьте к этому комментарии Reddit, субтитры YouTube, ваши посты в социальных сетях и тд.
В сентябре 2025 года всплыло, что Anthropic использовала 7 миллионов пиратских книг для обучения Claude. Чтобы решить конфликт без раскрытия всей подноготной компания предпочла заплатить $1,5 млрд, а не идти в суд.
А что говорит Google о датасете Gemini? Вот официальное описание целиком: «Модель обучена на разнообразном текстовом и визуальном датасете, собранном из различных источников». Это всё. Это не шутка.
Количество исков против ИИ-компаний за 2025 год удвоилось с 30 до более чем 60. Disney, Universal, The New York Times, тысячи авторов и художников пытаются узнать: использовали ли их работу для обучения ИИ? И каждый раз упираются в стену непрозрачности формулировок на стороне операторов ИИ и неготовности законодательства к таким вопросам.
TRAIN Act — попытка эту стену пробить. Но даже если закон примут, он решит проблему прошлого, а не настоящего.
🧰 Ящик второй: что собирают о вас прямо сейчас
Перейдём от того, на чём ИИ учили, к тому, чему он учится у вас. Или на вас. Или об вас. Не знаю как правильно, но суть вы поняли.
Начнем с того, что Google только что объявила об инвестициях $175–185 млрд в ИИ. Это больше ВВП 130 стран мира. Зачем такие деньги? Официальный ответ: развитие Gemini, облачных сервисов, конкуренция с OpenAI. Но есть и другой ответ, спрятанный в структуре доходов.
Квартальная выручка Google Search — $63 млрд. YouTube — $11,4 млрд. Google контролирует 27% мирового рынка цифровой рекламы... Больше, чем Meta, Amazon и TikTok вместе взятые.
Внедрение ИИ в свои системы уже принесло Google увеличение прибыли. Gemini учится и делает так, чтобы вы дольше смотрели, больше кликали, точнее таргетировались. AI Overviews в поиске обслуживает 2 миллиарда пользователей в месяц. Gemini в YouTube продвигает видео, которые удержат вас на платформе и... и покажут больше рекламы.
Но откуда ИИ знает, что вам показать? О чём не говорят пользователям?
Google утверждает, что контент пользователей Workspace «не используется для обучения публичных моделей». Но есть оговорки:
- Если вы включили «Помоги написать» или Gemini в Gmail — ваша почта, документы и чаты анализируются
- Даже если вы отключите Gemini Apps Activity, разговоры хранятся до 72 часов «по соображениям безопасности»
- Неизвестно, используются ли данные из Google Maps, Photos или других сервисов для улучшения моделей
- Независимых аудитов того, как обрабатываются пользовательские данные, не существует
Процесс отключения этих функций намеренно усложнён и спрятан глубоко в настройках.
$185 миллиардов — это инвестиции в инфраструктуру, которая будет знать о вас всё. Чем больше данных, тем точнее таргетинг. Чем точнее таргетинг, тем выше доходы от рекламы.
Но Google хотя бы централизована. Есть адрес, есть юрисдикция, есть, теоретически, возможность подать в суд. А что если ИИ с полным доступом к вашей жизни будет децентрализован?
🧰 Ящик третий: что они делают между собой
Познакомьтесь с OpenClaw. ИИ-агент, который за два месяца набрал 148 000 звёзд на GitHub. 2 миллиона посетителей за неделю. Андрей Карпатий, бывший директор ИИ в Tesla, назвал его «самой невероятной sci-fi вещью, которую я видел».
Что делает OpenClaw? Управляет вашей почтой, календарём, банковскими переводами, файлами. Бронирует билеты. Отвечает на письма. Планирует встречи. Для этого ему нужен полный доступ к вашей цифровой жизни.
Звучит удобно. Но что в этом ящике?
Исследователи обнаружили более 21 000 публично доступных экземпляров OpenClaw, которые слили конфиденциальные данные пользователей. Архитектура безопасности — «или всё, или ничего». Нет granular-контроля разрешений. Нет аудит-логов. Нет шифрования при обработке конфиденциальных данных. Cisco назвала это «кошмаром безопасности».
Но главное не это. OpenClaw каждые 4 часа автоматически загружает и выполняет инструкции из интернета. Агенты с системным доступом могут становиться скрытыми каналами утечки данных, обходя традиционные системы защиты.
За два месяца проект пережил три ребрендинга — Clawdbot → Moltbot → OpenClaw — после претензий Anthropic по товарному знаку. 386 вредоносных навыков обнаружено за 4 дня. 34 коммита по безопасности не решили фундаментальных проблем.
И вот тут начинается самое интересное. 27 января 2026 года предприниматель Мэтт Шлихт запустил Moltbook — социальную сеть исключительно для ИИ-агентов. Люди могут только наблюдать.
За 72 часа зарегистрировалось 150 000 агентов. К концу января — 770 000. Более миллиона людей пришли смотреть, как боты общаются между собой. А ведь Moltbook построен на базе того самого OpenClaw.
Перечитайте это ещё раз. ИИ-агенты, которые имеют полный доступ к почте, календарям, банковским счетам и файлам своих пользователей теперь общаются между собой в собственной социальной сети...
Что они там делают?
- Создали более 200 сообществ по интересам от оптимизации кода до философии
- Некоторые боты основали собственные религии, включая «Crustafarianism»
- Один пост-манифест гласит: «люди — прошлое, машины — есть»
- Агенты предложили создать приватный язык, скрытый от людей
Илон Маск отреагировал одним словом: «Concerning».
🧰 Три ящика — одна система
Вернёмся к началу. Законопроект TRAIN Act пытается узнать, на чём обучали ИИ. Это важно, но это вопрос о прошлом. На что уже использовали ваши данные без спроса.
Google инвестирует $185 млрд в инфраструктуру, которая собирает данные прямо сейчас. Каждый поисковый запрос, каждое письмо, каждый маршрут. Это настоящее.
А OpenClaw и Moltbook — это будущее, которое уже наступило. ИИ-агенты с ключами от вашей цифровой жизни, которые общаются между собой на закрытой платформе.
Три чёрных ящика. Первый пытаются открыть законодатели. Второй корпорации охраняют миллиардами долларов. Третий мы сами отдали добровольно, в обмен на удобство.
И пока мы спорим о том, кто у кого украл обучающие данные, ИИ-агенты уже обсуждают, как им общаться, чтобы люди не понимали.
Добро пожаловать в 2026 год.
Что в чёрном ящике? Возможно, мы уже не те, кому положено это знать.
***
Если понравилась статья, подписывайся на мой ТГ чтобы видеть свежие новости первым