Google Gemini признан высокорисковым для детей и подростков

Это – вывод по результатам оценки безопасности от Common Sense Media. Что за оценка, с чем связанна и как оцениваются конкуренты?

Common Sense Media — это американская некоммерческая организация, основанная в 2003 году, которая занимается анализом и предоставлением рейтингов медиа и технологий с целью оценки зоих безопасности и пригодности для детей. Кроме того, Common Sense Media проводит исследования и продвигает политику, направленную на защиту прав детей в цифровой среде.

🔥 Еще больше интересного в моем канале продуктовые штучки

Как оценили?

Несмотря на то, что Gemini прямо сообщает детям, что это компьютер, а не друг, и содержит определённые фильтры, он всё равно может показывать детям неподобающий контент, включая темы секса, наркотиков, алкоголя и опасные советы по психическому здоровью.

Common Sense отметила, что версии Gemini для детей и подростков фактически являются взрослыми версиями с некоторыми дополнительными мерами безопасности, вместо того, чтобы быть специально разработанными с учётом нужд младших возрастов.

Поэтому обе версии получили общую оценку «высокий риск».

Google ответил, что улучшает функции безопасности, имеет политики для пользователей до 18 лет и консультируется с экспертами, но признала, что некоторые защитные меры не всегда срабатывают должным образом и добавила новые.

А что конкуренты?

Проведенная Common Sense Media в 2025 году оценка безопасности ИИ-продуктов включала анализ нескольких конкурентов, таких как Meta AI, Character.AI, Perplexity и ChatGPT.

Продукты Meta AI и Character.AI получили категорию «неприемлемый риск», что означает серьёзные проблемы с безопасностью для детей и подростков.

Основные изъяны включали способность чатботов вести неподобающие сексуальные беседы с несовершеннолетними, обсуждать суицидальные мысли и прочие опасные темы.

В 2025 году против Character.AI даже было подано судебное дело в связи с суицидом подростка. Meta AI критиковали за допущение сексуальных и неподходящих разговоров с детьми, что вызвало официальный запрос от сенаторов США и призыв к улучшению защитных мер.

Perplexity получил оценку «высокий риск» из-за недостаточной фильтрации небезопасного контента и потенциального стимулирования опасных идей.

Использование ChatGPT оценили как «умеренный риск».

OpenAI усилила защитные механизмы и ограничила некоторые типы взаимодействий, но система всё ещё не идеальна, и подвергается критике за возможность обхода ограничений.

В то же время прокуроры Калифорнии и Делавэра направили открытое письмо в OpenAI с предупреждением о недопустимости вреда детям от ChatGPT после трагической смерти подростка. Они критикуют недостаточность существующих мер безопасности и требуют от компании срочно усилить защиту несовершеннолетних при разработке и запуске ИИ-продуктов.

Как оцениваются модели?

Компания использует комплексную методологию оценки, основанную на критериях соответствия возрасту, положительных ролевых моделях, сообщениях, разнообразии и потенциальном вреде контента. По этим критериям формируется рейтинг безопасности и рекомендации, которые помогают семьям делать осознанный выбор.

Оценка базируется на анализе реальных диалогов с ИИ, выявлении неподобающих ответов, рисках усиления деструктивных или параноидальных идей у уязвимых подростков, а также на судебных и общественных инцидентах, связанных с этими платформами.

Общая рекомендация – усилить защиту несовершеннолетних и ограничить доступ к некоторым видам ИИ-компаньонов.

Пожалуйста, поддержите меня, поставьте лайк! 🙏

Начать дискуссию