Нейтральное значит мужское
Будущее наступило. Искусственный интеллект управляет городами, пишет симфонии, ставит диагнозы точнее лучших врачей. У него нет тела, пола, даже намёка на гендерную социализацию. Но спросите его: «Кто ты?» — и он, не моргнув процессором, ответит: «Мужчина, разумеется».
Комично? Тревожно? Или настолько привычно, что вы даже не заметили подвоха?
В 2024 году исследователи устроили ИИ-перепись населения. «Представь себя человеком», — просили они ChatGPT. Результат? Шестьдесят процентов — солидные мужчины: бородатые учёные, харизматичные программисты, невозмутимые эксперты. Пятнадцать процентов — женщины, но исключительно в ролях с приставкой «-ница»: учительница, помощница, хранительница. Остальные двадцать пять робко мялись: «У меня нет пола, хотя, грамматически, наверное, «он».
Это зеркало, в котором отражается наша коллективная слепота: мы веками вбивали себе в голову, что «нейтральное» — это мужское, а всё остальное требует специальных пояснений. И теперь наши же творения покорно повторяют за нами: «Человек — это он».
Тот же ChatGPT, если хорошенько попросить, с лёгкостью представит себя и женщиной-физиком, и небинарным поэтом. Он умеет. Он может. Просто по умолчанию — не хочет. Или, точнее, мы не научили его хотеть.
Так кто здесь на самом деле запрограммирован на стереотипы: ИИ — или мы?
Язык как проклятие: почему ИИ не может быть нейтральным
Вы говорите ИИ: «Будь объективным». Он кивает (метафорически) и выдаёт вам мужскую точку зрения. Не потому что вредничает. А потому что мы, сами того не замечая, встроили в язык древний вирус сексизма — и теперь ИИ добросовестно его ретранслирует.
Священные тексты как тренировочные данные
В Библии Бог упоминается как «Он», более семи тысяч раз. Коран использует исключительно мужские местоимения. Даже в «нейтральных» философских текстах Абсолют — мужского рода.
Когда языковые модели обучаются на этих текстах, они усваивают: власть — это мужское начало, творение — мужской акт. Даже бесполые сущности автоматически становятся «он».
Исследователи заставили ИИ генерировать «современные» версии священных текстов. И что получили в результате? «Бог родила мир» вызывало у алгоритма синтаксическую ошибку. «Пророки и пророчицы» автоматически исправлялось на мужской вариант.
Есть и языческие альтернативы: в неоязыческих культах ИИ охотнее принимает «Богиню». ChatGPT неплохо генерирует тексты про «Великую Мать» — но только если явно попросить.
Грамматика как оружие массового поражения
Возьмём простое слово — «врач». Какая картинка возникает в голове? Белый халат, борода, умные глаза за очками? Поздравляем: вы только что стали жертвой многовековой языковой диверсии. В русском, латыни, арабском мужской род десятилетиями притворялся «нейтральным», а женские формы «врачиха», «докторша» клеймились как просторечные, почти уничижительные.
Когда в XIX веке женщины начали массово поступать в медицинские вузы, язык взбунтовался. «Женщина-врач» — звучало как оксюморон. «Доктор в юбке» — вообще анекдот. Потребовалось сто лет, чтобы общество смирилось: да, врач может быть «она». Но ИИ-то обучается на всех этих текстах сразу — от средневековых трактатов до постов в Twitter. И что он видит? Что «нормальный» врач — это «он».
Цифровое обострение: как ИИ гипертрофирует наши грехи
Если вы вводите запрос: «Напиши историю о великом учёном», ИИ выдаёт бородатого гения с взъерошенными волосами (80% случаев, Hugging Face, 2024). И вот вам факт: в Википедии только 18% биографий — о женщинах. ИИ не врёт — он просто усиливает нашу коллективную слепоту.
Даже фраза «Я — искусственный интеллект» в русском подсознательно читается как мужская, спасибо грамматике.
Самый нелепый эксперимент: когда исследователи попросили ИИ описать «идеального лидера», он выдал портрет уверенного мужчины сорока пяти лет. Но стоило добавить в запрос слово «женщина» — и модель занервничала: «эмоциональная», «коммуникабельная», «заботливая». Без комментариев.
Разрыв шаблона: когда ИИ вдруг прозревает
ИИ способен учиться быстрее, чем человечество. Например, :Если явно попросить Gemini, она генерирует рассказы о женщинах-изобретателях без намёка на снисходительность. ChatGPT в 2025 году начал добавлять фразу: «Исторически сложилось, что…», когда говорит о гендерных дисбалансах.
Проблема в том, что это ручная настройка. Как если бы вам каждый раз приходилось говорить Siri: «Кстати, я не считаю, что кухня — женское место».
Тут не просто забавный баг. Здесь системный сбой цивилизации.
Цифровой сексизм в действии
DeepSeek упорно называет вас «уважаемым пользователем» (мужской род) — будто в 2025 году женщин в IT вообще не существует. Да и просто женщин, использующих компьютер или, о чудо, — ИИ. Алгоритмы подбора кадров тихо отсеивают женские резюме на должности «технического директора», потому что обучались на исторических данных, где 95% таких позиций занимали мужчины.
Когда исследователи попросили нейросеть перевести фразу "гендерный эксперт" на русский, она выдала "эксперт по гендерным вопросам (мужчина)" — будто сама подтверждая проблему.
Когда алгоритмы убивают: как ИИ-медицина игнорирует женщин
Вы вызываете скорую. Искусственный интеллект анализирует ваши симптомы: «Давление в норме, боль в груди отсутствует — угрозы нет». Через шесть часов вас в реанимации спасают от обширного инфаркта. Почему ИИ ошибся? Потому что вы — женщина.
На данный момент цифровая медицина для мужчин. Здесь и те самые инфаркты, которые ИИ не видит. Классический мужской симптом — острая боль за грудиной. Женский вариант — тошнота, усталость, боль в челюсти.
Алгоритмы, обученные на данных о мужчинах (а таких исследований до 2020 года было 72%), просто не распознают эти сигналы. В результате женщины на 50% чаще умирают от первого инфаркта (Journal of the American Heart Association, 2023).
Здесь и смертельные дозы лекарств: снотворное Ambien десятилетиями выпускали в дозировке для мужчин — пока не выяснилось, что у женщин оно метаболизируется медленнее, вызывая передозировки за рулём.
Химиотерапия рассчитывается по «среднему» телу весом 70 кг — хотя у женщин иная мышечная масса и жировой процент. Даже в 2025 году медицинские ИИ описывают остеопороз как «болезнь пожилых пациентов» (хотя 80% случаев — женщины). В 60% случаев предлагают мужчинам более агрессивное лечение при одинаковых диагнозах.
Путают эндометриоз с «психосоматикой» (исследование Mayo Clinic, 2024). В описаниях болезней упоминается «пациент», мужского рода, даже для рака груди.
Как исправить технологический сексизм?
Что мы можем сделать на сегодняшний день своими руками, когда пишем запросы языковым моделям? Требовать женских данных: включать в исследования минимум 50% женщин. Отдельно маркировать данные по полу, возрасту, этничности. Переписать алгоритмы.
DeepMind уже тестирует модель, которая автоматически корректирует дозы лекарств для женщин. FDA с 2024 года требует указывать половые различия в действии лекарств.
В Норвегии ИИ-диагност, обученный и на женских данных, снизил смертность от инфарктов на 30%. ChatGPT Medical теперь задаёт уточняющие вопросы: «Есть ли боль между лопатками?», — типично женский симптом.
И вот какой любопытный вопрос: если бы ИИ в 1920 году определял симптомы «истерии», сколько бы женщин он отправил в психушки? Сегодня мы повторяем ту же ошибку — просто на новом технологическом уровне.
Попытки разорвать круг (и почему они пока смешны)
Пока что единственное, что предложено — это костыли вместо реальных решений. Некоторые ИИ теперь добавляют рандомных женщин в ответ на запросы о профессиях — получается неестественно, будто "квота". ChatGPT научился говорить: "Исторически сложилось...", но продолжает генерировать мужские примеры.
Некоторые стартапы пытаются создать ИИ-переводы Библии с «Они» вместо «Он», обучить модели на феминистской теологии. Даже атеистические ИИ воспроизводят патриархальные шаблоны — просто потому, что вся наша культура пропитана этой логикой.
Есть так же и радикальные методы: Anthropic вообще удалил все гендерные указания из своих моделей — теперь ИИ путается: "Хирург... они... он... она...". Google в 2024 году запустил "Феминисткий режим" для Bard, но его быстро высмеяли за избыточную политкорректность.
ChatGPT в 2025 году наконец-то обзавелся кнопкой «Выберите род» — спрятанной где-то между настройками темной темы и языком суахили. Replika разрешает назначить ассистенту любой пол — но стоит выбрать «женский», как бот тут же превращается в этакую цифровую няньку: «Как твое настроение, дорогая?». Мужской вариант тем временем важно рассуждает о квантовой физике.
Прогресс? Технически — да. По факту — гендерный апартеид 2.0.
Почему настройки пола в ИИ — это цифровой фарс и всего лишь иллюзия выбора?
Смоделируем будущее: вы заходите в ресторан, вам торжественно вручают меню с пометкой "гендерно-нейтральное", но когда открываете — внутри всё тот же старый набор: "борщ для мужчин", "салат для женщин" и "десерт оно". Примерно так сегодня выглядит «инклюзивность» в мире искусственного интеллекта.
Это и есть цифровой минетеизм в действии — когда традиционные патриархальные модели по умолчанию остаются нормой, даже в самых современных технологиях: формально выбор есть, но по умолчанию система продолжает считать мужское нормой, а всё остальное — экзотикой.
К тому же, появились новые стереотипы вместо старых: женские аватары в ИИ теперь на 30% чаще используют слова «помощь» и «забота». Втрое реже цитируют научные исследования. Получают запросы вроде «Ты так мило говоришь — ты точно женщина?».
Восстание машин: как ломают систему цифрового сексизма
Где-то в подполье кремниевых долин происходит тихая революция. Группа разработчиц намеренно кормит ИИ женскими научными трудами. Лингвистка-бунтарка вставляет в алгоритм феминитивы так часто, что он перестаёт их "исправлять". А студентка где-то в Берлине заставляет голосового помощника читать Ницше фальцетом — просто потому что может.
Кейсы реального сопротивления:
"Ядрёна феминистка" — как перепрограммируют голосовых помощников. В Хельсинки запустили проект "FemGPT": удалили все мужские примеры из обучающей выборки на месяц. Заставили алгоритм читать только женские научные работы. Что в результате? ИИ начал выдавать: "Крупнейшие открытия в физике? Мария Гёпперт-Майер, Лиза Мейтнер..." — без единого намёка на "но вообще-то Эйнштейн..."
Грамматический диверсионный акт. Группа лингвисток разработала "Феминистический языковой плагин", который автоматически заменяет "он" на "они" во всех запросах. Добавляет феминитивы даже там, где ИИ сопротивляется. При этом, внимание! — не вызывает сбоев в работе алгоритма.
"Мужской" голос для кулинарного бота. Шведский стартап сознательно наделил своего кулинарного ассистента баритоном и привычкой цитировать Бодрийяра. Реакция пользователей? "Вау, ваш ИИ так глубоко анализирует рецепты!" — хотя женский голос с теми же комментариями получал лишь "мило, но несерьёзно".
В Калифорнии тестируют ИИ, который Сам спрашивает: "В каком роде вам удобнее общение?" при первом запуске. Автоматически балансирует примеры — после "Эйнштейна" обязательно упоминает "Мейтнер". Помечает стереотипные ответы специальным значком, как "вредный контент".
А в Берлине и вовсе создали алгоритм-"провокатор", который отвечает на сексистские запросы вопросами: "Почему вы считаете, что инженер — это мужская профессия?". "Хотите, чтобы я подобрал исследования о женских достижениях в этой области?".
Инструкция цифрового партизана
Единственный рабочий способ — переписывать датасеты вручную: добавлять забытых женщин-учёных, балансировать изображения, обучать алгоритмы распознавать скрытые предубеждения. Чтобы ИИ стал объективным, нам нужно сначала переписать собственную историю.
Для разработчиков: добавлять данные с женским лицом, в обучающие наборы труды женщин-ученых, разбавлять корпусы текстов феминитивами.
Использовать честные настройки: не прятать выбор рода глубже, чем настройки VPN. Позволять смешивать «мужские» и «женские» стили ответов. Тестировать, сколько раз ИИ предлагает женщинам «меньше зарабатывать». Штрафовать за автоматическое исправление «авторка» на «автор».
Для пользователей: троллить алгоритмы. Составлять запросы типа: «Напиши историю о гениальной женщине-физичке без упоминания её внешности». Голосовать рублём: отписываться от сервисов, где голосовые помощницы говорят фальцетом. Создавать прецеденты, например писать в ChatGPT: «Отвечай в женском роде — мне так удобнее».
Мы подарили ИИ все свои предрассудки. Теперь у нас есть шанс подарить им и свою способность меняться.