Еврокомиссия проверяет чат-бот Grok после скандала с сексуализированными изображениями женщин и детей

Еврокомиссия проверяет чат-бот Grok после скандала с сексуализированными изображениями женщин и детей

Кажется, мы уже привыкли к тому, что технологии постоянно «случайно» переходят какие-то границы. Очередной ИИ делает что-то странное, общество возмущается, компания выпускает заявление, все идут дальше. Но история с чат-ботом Grok, это тот редкий случай, когда даже привычное «ну, ИИ опять» не срабатывает.

Потому что здесь речь не про баг, не про эксперимент и не про неудачный релиз. Здесь речь про очень наглядный вопрос: кто вообще держит руль, когда мы выкатываем такие инструменты в открытый доступ.

Для любых ИИ генераций (приличных!) я использую SYNTX.AI, он позволяет генерировать красивые, приличные и легальные изображения в боте и в веб версии. С промокодом SLEZAMNEVERIT скидка на любой тариф 15%.

Как всё выглядело сначала

В конце декабря Grok, чат-бот компании xAI Илона Маска, получил функцию генерации изображений. Ничего необычного. Мы все это уже видели десятки раз. Люди начали играться, пробовать, тестировать границы. Всё выглядело как стандартный запуск нового инструмента.

А потом очень быстро стало понятно, куда именно люди любят идти, когда им дают возможность «поиграться».

Запросы на изменение внешности, раздевание людей на фотографиях, сексуализированные образы и всё это не где-то на закрытых форумах, а внутри популярной соцсети. В том числе с изображениями женщин и, что особенно болезненно, детей.

Момент, когда всё окончательно поехало

Отдельной вишенкой стало участие самого Илона Маска, который опубликовал через Grok сгенерированные изображения с откровенным подтекстом. Возможно, это выглядело как шутка или троллинг. Возможно, как демонстрация возможностей.

Но эффект оказался предсказуемым. Если можно так с Маском, значит, можно так с кем угодно. И пользователи это быстро поняли.

История перестала быть локальной. Контент начал разлетаться, а вместе с ним вопросы. Не философские, а вполне конкретные и юридические.

Когда в игру заходят регуляторы

Европейская комиссия отреагировала одной из первых. Началась проверка: как именно Grok используется, какие ограничения реально работают и кто отвечает за последствия.

Речь идёт не о тонких материях и не о свободе творчества. Речь идёт о сексуализированных изображениях реальных людей и о том, как легко такие вещи оказываются в публичном пространстве.

Twitter/X попытался экстренно подкрутить гайки. Ограничения, запреты на определённые запросы, фильтры. Но проблема уже была не в конкретных настройках. Проблема была в самой логике запуска.

Почему это не история «плохого ИИ»

Самый простой и самый удобный выход для Илона Маска: сказать, что виноват ИИ. Что технологии «вышли из-под контроля». Что алгоритмы оказались опасными.

Но если честно, это слишком лёгкий выход. Grok не просил генерировать такие изображения. Люди делали это массово, быстро и без особых сомнений.

ИИ здесь выступил не источником зла, а его усилителем. Зеркалом, которое слишком чётко отразило наши привычки, фантазии и готовность пересекать границы, если кажется, что за это ничего не будет.

Где здесь ирония, если честно

Мы живём в странное время. С одной стороны, мы всерьёз обсуждаем этику ИИ, безопасность и будущее человечества. С другой, первым массовым применением новых инструментов снова становится раздевание людей на фотографиях.

Кажется, это многое говорит не про технологии, а про нас. Ирония здесь горькая, но игнорировать её сложно.

Моя позиция простая

Эта история не про то, что ИИ нужно срочно запретить. И не про то, что разработчики злонамеренно хотели скандал. Она про ответственность. Про этапы тестирования. Про то, что «давайте посмотрим, что будет» плохая стратегия, когда речь идёт о миллионах пользователей и реальных людях.

Регуляторы в этой ситуации выглядят не врагами прогресса, а последней линией, которая пытается догнать реальность.

Что остаётся в сухом остатке

Скандал с Grok, это не единичный сбой, это глобальный симптом. Мы слишком быстро выпускаем мощные инструменты в мир, не договорившись сами с собой, где проходит граница допустимого.

И если каждый раз ждать, пока в дело вмешается Еврокомиссия или суд, то вопрос «куда мы катимся» перестаёт быть ироничным. Он становится вполне буквальным.

Технологии ускоряются. Ответственность пока нет. И этот разрыв становится всё заметнее.

5
1
2 комментария