Рассмотрим чуть подробнее задачу на исключение ложных сработок. На размеченном наборе данных с помощью алгоритмов классификации осуществляется непосредственно обучение модели. После того, как модель обучена, вновь формируемые в SOC подозрения на инциденты классифицируются моделью как ложные или истинные. Если модель по всем метрикам (accuracy, precision, recall, f1-score, roc-auc) на тестовой выборке показывает высокие результаты (к примеру, > 0,99), то, в принципе, можно доверить ей автоматически отфильтровывать сработки, классифицированные как ложные, чтобы они уже не попадали в обработку к сотруднику первой линии SOC. А можно не отфильтровывать и оставить информацию для сотрудника о том, что модель машинного обучения считает эту сработку ложной. Однако, это уже скорее психологический момент доверия машине. Сложно утверждать, что конкретный сотрудник с вероятностью более 0,99 не допустит ошибку при отсеивании инцидентов, но в случае с моделью спрашивать о пропущенной угрозе будет не с кого.