Не так страшен ИИ, как им пугают

ИИ, у нас отмена!

Не так страшен ИИ, как им пугают

Фактически, внедрение ИИ в финансовом секторе каких-то новых специфических рисков не несет, поскольку все они так или иначе связаны с традиционными угрозами для клиентов фин. учреждения и самого фин. института. Просто теперь за них отвечает тонко настроенный цифровой разум, невероятно быстрый и эффективный, но настроенный человеком и настроенный по своему образу и подобию. Другими словами – если ошибется человек, случайно или умышленно, все те же ошибки может допустить и ИИ. Но все же ИИ при использовании на реальных данных и клиентах сокращает их по сравнению с «ручным» управлением и процессом принятия решений.

А вы боитесь искусственного интеллекта? Согласимся, он немного пугает, но скорее эффектом новизны, чем непредсказуемым поведением. Наверное, сегодня его можно сравнить с «Прибытием поезда» братьев Люмьер, когда зал от изумления и «колдовства» впал в полуобморочное состояние. Но прошло время и телевизор во всех его вариациях стал таким же предметом интерьера, как стул. У ИИ есть все шансы «повторить» этот успех.

И здесь следует помнить, что ни один алгоритм не дает 100% точности, так как всегда остается место для сложных случаев, аномалий в данных, изменения паттерна рыночных условий и т.д., когда и человек ошибется с бОльшей долей вероятности. Главное в этом подходе то, что ИИ должен показывать (и показывает) результаты лучше, чем человек.

Теоретически, можно выделить ряд рисков, связанных со спецификой работы ИИ и ответственностью его оператора:

1) кибербезопасность и хакерские атаки;

2) алгоритмические ошибки, вырождение моделей, изменение паттерна данных и рыночных условий, которые приводят к тому, что модели становятся неактуальными/несоответствующими действительности;

3) непрозрачность внутренней логики работы моделей ИИ (работа по принципу «черного ящика»), что затрудняет аудит/контроль бизнесом;

4) использование моделей ИИ не по назначению. Например, когда в важных для бизнеса процессах используются модели, обученные на данных и особенностях других бизнес-кейсов, либо допущено «галлюцинирование нейронных сетей»;

5) риск неопределенности зон ответственности за эти ошибки (разработчик отвечает или человек/компания, которые применяют ИИ некорректно или не по назначению).

Для выявления и оценки релевантных рисков необходимо постоянно мониторить и оценивать качество моделей по конкретным метрикам их качества. Только своевременный аудит алгоритмов позволит выявлять потенциальные проблемы на ранних стадиях и своевременно внести необходимые корректировки в модель.

На рынке уже существуют продукты страхования ответственности профессиональных разработчиков ПО, страхование от киберрисков. Но, если говорить о наиболее вероятном сценарии возникновения ущерба, в первую очередь, он может быть связан с хакерскими атаками, которые привели к утечке персональных данных.

Как же определяется и оценивается ущерб, причиненный искусственным интеллектом, в контексте страхования?

Это довольно сложный вопрос, и ответ на него до сих пор не получен.

Нам еще предстоит определить конструкцию правовых аспектов распределения ответственности между ИИ и его оператором/разработчиком, сформировать прецедентную базу, на основании которой может появиться новый вид страхования: микс страхования ответственности третьих лиц, работающих с искусственным интеллектом, и страхования от киберрисков, например.

Материальный вред (ущерб) прямо связан с утратой или повреждением имущества, различных материальных благ, определяется конкретной денежной суммой; физический вред – с вредом жизни и здоровью в явном виде. От того, что потенциальный заемщик не получит кредит в одном банке и получит в другом, ущерба не будет. Если ИИ вовремя (вопрос, что такое своевременное обновление, тоже предстоит определить участникам экспериментального правового режима) не обновили скоринговую модель и он широким жестом одобрил кредиты тысяче необеспеченных заемщиков, банк понесет финансовые потери. В этой ситуации потребуется решить, кто все-таки несет ответственность, в каком объеме, и по каждому похожему кейсу нужна статистика: андеррайтинговые модели должны опираться на конкретные ситуации, частоту их возникновения и проч., иначе рассчитать величину страховой премии и страховой суммы не получится.

Для более эффективного управления рисками ИИ в финансовых организациях понадобится ряд технических решений.

1. Повышение интерпретируемости и прозрачности работы моделей для бизнеса. Стоит уходить от концепций моделей ИИ, как «черных ящиков», то есть закрытых алгоритмов, в сторону максимально возможной объяснимости ИИ. На практике это означает, что не только разработчики знают, как работает алгоритм, но и бизнес четко понимает основные взаимосвязи. Потому что бизнес может начать применять модель не по назначению: если она была для разработана предсказания банкротства физлиц на основе истории автовладения, а они будут применять ее к людям, у которых никогда не было автомобилей, то это может привести к финансовым потерям.

2. Внедрение решений детектирования и предотвращения мошеннических атак на сервисы ИИ. Это может быть постоянный мониторинг, а также системы проверки устойчивости к атакам и манипуляциям входными данными.

3. Регулярное тестирование моделей на соответствие целевым метрикам качества для предотвращения процессов их деградации, а также регулярное дообучение, в случае изменения паттерна данных или возникновения новых зависимостей и аномалий.

В перспективе ближайших 5 и даже 10 лет о развитии рынка страхования рисков ИИ строить далеко идущие планы – преждевременно. ИИ не допускается (и бизнесом, и юридически) до принятия ключевых/жизненно важных решений. Сегодня он больше занимает нишу вспомогательного инструмента, «цифрового двойника», для сокращения трудозатрат на рутине. Кроме того, огромное количество усилий сейчас направлено на ограничение ИИ в части угрозы жизни и здоровью человека, совершение противоправных поступков, то есть работе в концепции «что не разрешено, то запрещено».

66
2 комментария

"Не так страшен ИИ, как им пугают" - Всё страшней гораздо и тем паче - это хуже для мешков в энной степени, чем вы можете представить. Кожаные мешки

1
Ответить

👍🏻

Ответить