Экономика эффективности: как банкам определять ценность ИИ-проектов
Где заканчивается измеримый эффект ИИ и начинается зона неопределенной окупаемости и почему новая волна ИИ‑угроз требует защиты не «на уровне модели», а «на уровне процесса», рассказывает Никита Худов, зам. генерального директора Альянса в сфере искусственного интеллекта, модератор сессии на форуме FINNEXT 2026.
— Где у ИИ сейчас проходит «граница экономической целесообразности»: какие задачи уже дают измеримый эффект в PL, а где банки пока сознательно притормаживают из‑за стоимости данных/вычислений/рисков?
Н. Худов: Сегодня граница проходит между зрелыми направлениями, где эффект уже хорошо измерим, и теми, где компании пока лишь ищут понятные способы оценки отдачи от инвестиций. Кредитный скоринг, противодействие мошенничеству и автоматизация операционных задач — уже зрелые области с прозрачной экономикой.
Банки сознательно притормаживают в тех областях, где соотношение затрат и рисков пока не в пользу масштабного внедрения: треть российских финансовых организаций не планирует инвестировать в ИИ в ближайшей перспективе — из‑за неопределенной окупаемости и высокой стоимости инфраструктуры.
Axenix в исследовании об ИИ-агентах и организационных изменениях выделяет три таких зоны: генеративные решения в клиентских коммуникациях, автономное принятие решений в корпоративном кредитовании и комплексную перестройку операционной модели под ИИ.
В клиентских коммуникациях главный сдерживающий фактор — невозможность использовать специализированное иностранное ПО. Это вынуждает банки разрабатывать собственные решения или переходить на открытые архитектуры, что обходится дороже и занимает больше времени. По данным НИУ ВШЭ, высокие затраты на внедрение остаются ключевым барьером для 58% организаций — и финансовый сектор здесь не исключение.
В корпоративном кредитовании и управлении рисками препятствием становится непрозрачность сложных моделей. Это повышает вероятность системных рисков, связанных с применением ИИ, в том числе из‑за однородности кредитных решений при массовом использовании одних и тех же архитектур.
Но есть еще один барьер, о котором говорят реже: многие организации просто не понимают, как корректно посчитать финансовый эффект от ИИ. Когда неясно, как измерить результат, решение об инвестициях принимается на основе веры, а не расчета — и именно на этом этапе многие осознанно притормаживают.
Именно эту проблему мы решали, когда вместе с Ассоциацией ФинТех и крупнейшими игроками рынка разрабатывали отраслевую методологию оценки финансового эффекта от ИИ. По сути, это единый язык для разговора технической команды с финансовым блоком: как выстроить точку отсчета, какие эффекты учитывать и как избежать типичных ошибок. Когда появляется понятный стандарт, инвестиционное решение перестает быть актом веры — и это принципиально меняет скорость масштабирования.
— Насколько опасна новая волна угроз от ИИ для финсектора, начиная с синтетической идентичности и заканчивая промпт-инъекциями? Что нужно менять в процессах (а не в моделях), чтобы не «утонуть» в этой волне?
Н. Худов: Каждая технологическая волна приносит не только возможности, но и новые способы злоупотреблений — и финансовый сектор проходил через это не раз. Сегодняшние вызовы — синтетические личности, атаки через языковые модели, автоматизированные мошеннические рассылки — отличаются по форме, но не по природе: это все та же задача адаптации, с которой отрасль умеет справляться.
Принципиальный сдвиг этого этапа — переход от защиты на уровне модели к защите на уровне процесса. По данным НИУ ВШЭ, сложность интеграции ИИ в бизнес‑процессы и связанные с законодательством ограничения остаются значимыми барьерами для каждой пятой компании — именно поэтому выстраивание правильных процессов вокруг моделей становится приоритетом. Три конкретных направления:
· динамическое наблюдение — переход от однократной проверки личности к непрерывному отслеживанию поведения клиента;
· четкое управление — распределение ответственности за решения алгоритма между бизнесом, подразделением рисков и технологической командой;
· регулярная проверка уязвимостей — целенаправленное тестирование слабых мест в системах искусственного интеллекта, а не только оценка их точности.
Банки, которые начали выстраивать эти процессы заблаговременно, сегодня чувствуют себя значительно увереннее остальных. Это убедительное подтверждение простого принципа: осознанный системный подход всегда эффективнее реакции на уже произошедшее.
Никита Худов примет участие в форуме финансовых инноваций FINNEXT 2026, который состоится 7 апреля. Форум будет посвящен тому, как искусственный интеллект и глобальная смена маршрутов повлияют на стратегию участников финансового рынка в ближайшие годы.
— Один из самых сложных компромиссов 2025–2026: приватность/суверенность данных vs. качество моделей. Какие практики реально работают, а какие оказались красивой теорией?
Н. Худов: Это действительно важная проблема текущего периода, но отрасль уже выработала рабочие подходы, которые позволяют двигаться вперед, не жертвуя ни качеством моделей, ни защитой данных. KEPT формулирует главный принцип четко: надежная защита строится на сочетании технических, организационных и правовых механизмов — ни один из них по отдельности не решает задачу полностью.
Практики, которые работают:
· Локальная обработка данных. Передача данных за пределы контура организации исключается уже на уровне архитектуры — не политиками, а техническим проектированием. Axenix называет это базовым проектным требованием, а не дополнительной опцией. Показательно, что 23% российских организаций уже разрабатывают ПО для ИИ собственными силами, предпочитая контроль над данными готовым внешним решениям.
· Синтетические данные. При разработке и тестировании моделей реальная клиентская информация заменяется искусственными наборами, которые статистически близки к оригиналу. Качество обучения сохраняется — риск утечки исключается.
· Разграничение доступа по ролям. Модель видит только те атрибуты профиля, которые нужны для конкретной задачи. Доступ к полной истории клиента не предоставляется по умолчанию.
Практики, которые пока не оправдали себя:
· Стандартное обезличивание как самодостаточная мера. Современные методы перекрестного сопоставления нескольких источников позволяют восстанавливать личность даже из формально обезличенных данных. KEPT прямо указывает: алгоритмы обработки должны исключать саму возможность повторной идентификации.
· Обработка клиентских данных во внешнем облаке. Выбор инфраструктуры перестал быть исключительно технологическим решением — это вопрос управления рисками. По данным НИУ ВШЭ, связанные с законодательством ограничения остаются значимым барьером для каждой пятой компании; рынок постепенно приходит к пониманию, что контролируемый периметр надежнее внешнего облака.
— Есть ли примеры, где ИИ уже влияет на управленческие решения на уровне правления, какие решения банки готовы подкреплять рекомендациями моделей, а какие принципиально оставляют «человеческими» — и почему именно так?
Н. Худов: Граница между автоматическим и человеческим решением определяется не сложностью технологии, а ценой ошибки и скоростью, с которой ее можно исправить.
Там, где банки уже полностью доверяют алгоритму, логика проста: объем и скорость операций в принципе исключают ручной контроль. Розничный кредитный скоринг, противодействие мошенничеству в режиме реального времени, краткосрочное управление ликвидностью — здесь решения принимаются тысячами в секунду, а цена единичной ошибки невысока по сравнению с общим потоком.
Там, где участие человека остается принципиальным, действует обратная логика. Крупные корпоративные кредиты, управление капиталом, стресс-тестирование на уровне правления, реструктуризация и спорные клиентские ситуации — за каждым из этих решений стоит репутационная и правовая ответственность. Ее нельзя делегировать алгоритму — и банки это хорошо понимают.
Дело не только в технической сложности сценариев. Алгоритм может дать точный расчет — но не взять на себя последствия. Именно поэтому граница проходит не там, где заканчиваются возможности модели, а там, где начинается личная ответственность за результат.
— Есть ли «красные линии» по клиентскому опыту: что ИИ не должен делать никогда?
Н. Худов: Отрасль постепенно приходит к нескольким принципам, которые уже сложно оспаривать.
Первый — честность. Если клиент прямо спрашивает, с кем он разговаривает, он должен получить честный ответ. Скрывать факт взаимодействия с искусственным интеллектом нельзя: это базовое условие доверия, без которого любая технология теряет смысл в долгосрочной перспективе.
Второй — запрет на манипуляцию. Алгоритм способен выявлять поведенческие уязвимости клиента — но использовать их для навязывания продуктов, которые явно не в его интересах, недопустимо. Краткосрочный прирост продаж не стоит долгосрочного разрушения доверия.
Третий — «право на живого человека». Искусственный интеллект может быть первым уровнем взаимодействия, но возможность эскалации к сотруднику должна оставаться реальной — особенно в чувствительных ситуациях. Это не опция, а обязательный элемент архитектуры сервиса.
Четвертый — право на оспаривание. Необратимые решения — ограничение операций, закрытие счета — не могут приниматься алгоритмом без понятной процедуры обжалования. Там, где последствия серьезны, у клиента должна быть возможность быть услышанным.
— Каких практических результатов вы ожидаете от участия в FINNEXT — для себя лично и для финтех-рынка?
Н. Худов: FINNEXT — одна из немногих площадок, где профессиональный разговор об ИИ ведется на достаточно высоком уровне: без упрощений, но и без излишней академичности. Для меня как для модератора это возможность не просто обозначить важные темы, но и услышать, как их воспринимает сама отрасль: что уже стало консенсусом, а что по‑прежнему вызывает споры. Именно такой открытый обмен мнениями сегодня особенно ценен, потому что рынок находится в точке реального перехода.
Ожидаю, что для рынка результат конференции будет еще более практическим: будут подняты вопросы, напрямую влияющие на технологическое развитие организаций. Программа форума отражает ключевой сдвиг, который происходит сейчас: от «ИИ как инструмента» к «ИИ как операционной основе» — от Co‑Pilot к Autopilot, от точечных решений к мультиагентным системам. Это не просто смена терминологии — это изменение логики принятия решений. И здесь важно, чтобы индустрия двигалась синхронно: иначе разрыв между теми, кто уже перестроился, и теми, кто только начинает, будет нарастать.
Если FINNEXT помогает сдвинуть разговор от «нужен ли нам ИИ» к «как правильно его масштабировать», это уже конкретный вклад в зрелость рынка. А именно эта зрелость сейчас во многом определяет, кто окажется среди лидеров следующего технологического цикла.