rage bait, «победа»… и влияние LLMs
«Слово года» по версии Oxford в 2025 году — "rage bait" (рейджбейт, «приманка для ярости» / «гневная приманка»; перевод Gemini).
В свою очередь: Cambridge — "parasocial", Collins — "vibe coding", Merriam-Webster … пока не определился, а Институт русского языка им. А. С. Пушкина «словом года» назвал «победу».
Для меня нет сомнений, что словари и стоящие за ними «институты» умерли.
Не потому что стали плохими, хотя Google сменил Collins на Oxford в 2010, что-то знает.
А потому что не могут конкурировать с LLMs. Это раз.
1. Словари стали музеем «значений», но не языка.
Словарь — застывший слепок, попытка поймать и замотать консенсусными определениями то, что по природе текучее, контекстуальное и крайне субъективное.
А вот LLM не хранит «значения» (в таком виде) — она хранит вероятности переходов, что ближе к самой «природе» языка.
2. Издатели словарей — это НЕ научные лаборатории.
Их метод — это интерпретация и «кураторство» («надзор»:), а не вычисление.
А интерпретация всегда субъективна и перегружена «культурным багажом института» («снусмумрика из Оксфорда»). Наука же (если это уместно) стремится к объективности и воспроизводимости, чего в лексикографии в ее нынешнем виде нет.
3. У словарей (и их издателей) НЕТ ресурсов и инструментов.
Это вопрос экономики и технологий. У них нет и не будет $700 млн на кластеры GPU.
Их инструмент — корпусная лингвистика (?) — стал нишевым и медленным по сравнению с фундаментальными LLM, которые «переваривают» весь интернет. Они проиграли войну масштаба.
4. Любая попытка конкурировать станет неизбежной смертью.
Если «Oxford Dictionary» попытается стать чат-ботом, он будет уступать любому базовому GPT. Его сила (ну и слабость) в другом — в создании статичного, завершенного артефакта (культуры, эпохи?).
5. Нейросеть видит меж-доменные и меж-языковые связи.
Это ключевое преимущество LLMs, которое невозможно «победю».
Словарь описывает слово в его «каноническом» употреблении. LLM «видит» его вибрацию в тысячах разных контекстов — от научного доклада до твита хейтера, — в десятках языков (вкл. формальные), — и главное, может смоделировать употребление слова в любом из этих вариантов.
У модели в голове (в весах) уже лежит точная сравнительная частотность «нового» слова в английском → русском → китайском → испанском и т. д. за последние 5–7 лет с точностью до промилле процента.
Она видит, что в английском корпусе слово «rizz» выросло в 2023-м с 0,0001% до 0,012% → через 9 месяцев оно уже в русском как «ризз/риззовать».
Она видит, что «brainrot» в англоязычных тиктоках 2024-го взлетел в 47 раз → и уже в 2025-м спокойно выдает «брэйнрот» русскоязычным подросткам, хотя в живой русской речи его ещё почти никто не произносил.
6. Смусмумрик не понимает коммьюнити (богатая русская языка:).
Доступ «снусмумрика из Оксфорда» к коммьюнити (геймеров или CEOs) — это доступ туриста или этнографа, который пришел с большим блокнотом.
Доступ LLM — это тотальная инфильтрация. Модель не «понимает» (в человеческом смысле), но она статистически присутствует в каждом сообщении, воспроизводя его логику изнутри.
7. Словарь не предлагает устойчивость и консенсус.
Словарь не предлагает консенсус — он диктует его сверху, выдавая результат работы закрытой группы за общественный договор. В эпоху, когда интернет победил, а LLMs в каждом смартфоне, этот договор разорван.
Устойчивость словаря — это не отражение стабильности (инерции, вязкости) языка, а инерция самого института.
Словари умирают потому что LLM знает слово года заранее. Это два.
8. Назовем это «замкнутый цикл нормализации»…
Вот настоящая «петля»:
- Модель генерирует слово или конструкцию (например, «нарратив», «валидировать»);
- Люди копируют это слово в тексты (иногда криво, но массово:);
- Следующая модель обучается на этих текстах, воспринимая слово как норму;
- Официальные институты фиксируют это слово как «слово года» — потому что оно стало статистически заметным.
Цикл замкнулся…
И никто ничего не «решал»…
Просто модель зафиксировала колебание в токенах (мерцания слабых весов:), и слово стало новой нормой. :)
И это еще не все.
Еще веселее — так же с «цветом года» и коллекцией весна–лето 2026. Это три.
9. Цвет года (Pantone / WGSN).
Уже в 2024–2025 годах 60–70% «тренд-форкастов» от крупных агентств делаются с помощью LLM-анализа миллиардов фотографий из Instagram*, Pinterest, TikTok и стритстайл-архивов.
* соцсеть принадлежит компании Meta, деятельность которой признана экстремистской и запрещена в РФ
Модель «видит»:
- в 2024-м на 0,4% выросло использование оттенка #F0EEE9 в скандинавских интерьер-фото и минималистских moodboard'ах →
- через 8 месяцев цвет уже в 40% генераций Midjourney и Stable Diffusion →
- люди начинают его просить и постить →
- цвет заливает весь интернет →
- Pantone в декабре 2025-го объявляет «Cloud Dancer» цветом 2026 года.
А на самом деле модель его выбрала еще в марте 2024-го, просто люди прошли весь круг и убедили себя, что «сами захотели».
10. Фасоны весна-лето 2026
Сейчас 80% референсов, которые дизайнеры и бренды типа Shein, Zara, H&M кидают в Midjourney / Flux / Kling для генерации коллекций — это промты, написанные с помощью GPT / Claude.
Цикл занимает уже не 2 года, а 4–6 месяцев:
- январь: модель случайно выдает тысячу картинок с «асимметричными рукавами-крыльями» и «прозрачными накладными карманами» чаще обычного →
- февраль–март: инди-бренды в Китае и Турции шьют это по генерациям →
- апрель–май: это уже в стритстайле Сеула и на TikTok →
- июнь: Vogue и Elle пишут «главный тренд сезона — асимметричные крылья» →
- июль: Zara и Massimo Dutti выпускают масс-маркет версию →
- август: все думают, что это «органический тренд снизу».
А на самом деле это просто модель в январе 2025 подняла вес определенного токена в визуальном пространстве на 0,2%, и все закрутилось.
(примеры и цифры были условными… почти :)
Так что "rage bait" — не просто слово.
Это случай, когда слово выбрали, чтобы вызвать "rage bait"…
И вызвали.
А вы теперь читаете этот пост — и увеличиваете вес слова в модели.
Хотя сам пост — "rage bait":)
Или «победа»?