Также алгоритм учится распознавать «взрослый» контент и ретушь.Вот это интересно, кстати. Есть продолжительный опыт ежедневного использования Discord, у которого очень странный алгоритм отбора «взрослого» контента. К примеру, регулярно банит на лету снимки, например, спортсменов-мужчин с обнажённым торсом (даже Железного Арни не пощадил!), и не менее регулярно пропускает гачи-контент или другую дичь, схожую по содержанию. А у вас были/есть похожие накладки? И если да, то как боретесь?
Для модерации «взрослого» контента у нас есть несколько моделей. Отдельно мы делаем оценку для детектирования порнографии и изображений с эротическим содержанием. В результате такого разбиения на 2 подкласса мы можем более точно находить сигналы для создание безопасной выдачи фотографий. При обучении модели мы использовали данные как из мультипликационных картинок и видео, так и данные, отражающих реальные объекты.
Также алгоритм учится распознавать «взрослый» контент и ретушь.Вот это интересно, кстати. Есть продолжительный опыт ежедневного использования Discord, у которого очень странный алгоритм отбора «взрослого» контента. К примеру, регулярно банит на лету снимки, например, спортсменов-мужчин с обнажённым торсом (даже Железного Арни не пощадил!), и не менее регулярно пропускает гачи-контент или другую дичь, схожую по содержанию. А у вас были/есть похожие накладки? И если да, то как боретесь?
Для модерации «взрослого» контента у нас есть несколько моделей. Отдельно мы делаем оценку для детектирования порнографии и изображений с эротическим содержанием. В результате такого разбиения на 2 подкласса мы можем более точно находить сигналы для создание безопасной выдачи фотографий. При обучении модели мы использовали данные как из мультипликационных картинок и видео, так и данные, отражающих реальные объекты.