Если действительно разобраться в том, как работает ИИ, станет понятно, что предсказательной способности у модели быть не должно. Как же тогда она так точно предугадывает ложные срабатывания? Дело в том, что в данных, загруженных в ИИ, ложных срабатываний было гораздо больше, чем истинных, соответственно, алгоритм всего лишь научился предсказывать ложное срабатывание. На основе обработанных данных он понял, что «верно» всегда выдавать нолик вместо единички, то есть всегда говорить, что датчик сработал ложно.
ЗАбавно слышать что-то о том, как "антиплагиат" волнуется о том, что что-то там стоит чьих-то жизней, когда сам антиплагиат сколько жизней погубил