Рассмотрим сперва первые два случая. Цели у «вирусов широкого профиля» могут быть разные: например, эксплойт попытается модифицировать контент на вашем сайте, отобразить рекламу или перевести пользователя на другой ресурс. А, возможно, ваш сайт ему вовсе не нужен и конечная цель атаки – это посетитель сайта, у которого в браузере запустится вредоносный JavaScript. Либо же наоборот, атака будет направлена «внутрь», на ваш сервер, чтобы, например, использовать его мощности для проведения других атак или банально для майнинга / рассылок и т. п.
Комментарий недоступен
Уверен, всё решаемо. Главный минус борьбы с ботами - в жертву приносится удобство пользователей, ведь гораздо удобнее логиниться "в один клик", чем доказывать капче, что ты не робот :-) Если боты ломают и капчу, то следующий уровень - это верификация через телефон...
Раньше можно было эффективно срезать бОльшую часть ботов методикой HoneyPot (когда в форме регистрации есть "ложные" поля, похожие на настоящие, но скрытые от пользователей. И если пришла форма, в которой эти поля заполнены, то значит её выслал бот, и такой запрос не обрабатывается). Но, боюсь, сегодня и боты тоже стали умнее.
Вообще у Битрикса есть свой модуль "проактивный фильтр", и часть вредоносных запросов, которые валятся на сайт, он действительно отлавливает... но тоже не панацея, конечно.
Комментарий недоступен
Каптча каптче рознь, можно попробовать заменить стандартную (которой миллиард лет уже, причём без малейших изменений и прогресса) на внешний сервис. Если ещё не.
Но да, если вопрос не во вреде бизнесу, а просто в раздражении, то затевать разработку тут может быть себе дороже :-)
Комментарий недоступен