​Кредиты. Об этичном искусственном интеллекте

В конце прошлого года председатели двух комитетов Конгресса США призвали регулирующие органы США обеспечить внедрение крупнейшими кредиторами страны мер предосторожности: ИИ должен оптимизировать доступ к кредитам для семей с низким уровнем дохода и меньшинств, и не усиливать «исторические предубеждения». Речь идет о необходимости этичного использования технологий искусственного интеллекта (ИИ), включая машинное обучение (МО), и оказания помощи малым сообществам с низким/умеренным доходом.
📎 Подобный процесс начала и Великобритания. Регуляторы предупреждают банки, желающие применять ИИ для утверждения кредитных заявок, что это возможно только в том случае, если будет доказано, что алгоритм «не усугубит дискриминацию в отношении меньшинств, которые и так испытывают трудности с получением кредитов». Речь о том, что к группам, которые традиционно имеют высокий уровень дефолта, выставляются более высокие процентные ставки, что, в свою очередь, эту же вероятность и повышают. А идея добавить к этому ИИ делает этот процесс невозможным. Пока что в отрасли "думают и работают» над тем, как все это этично внедрить. Поговорим.
1. Считаю, что реальный ИИ практически не используется финансовыми учреждениям. Речь об автоматизированных моделях/МО - в лучшем случае это просто алгоритм кредитного скоринга или вычисления статистических связей данных (большинство банков держатся на макросах excel и системах, которые так и не изменились за много лет).
2. Что до понятия «усугубить дискриминацию" – любое кредитование и так вращается вокруг дискриминации (требование, чтобы остаться в бизнесе). Дискриминация по доходу, типу работы, отрасли, стоимости принадлежащих активов, качеству партнеров... да по чему угодно. Модель кредитования опирается на разные характеристики и регрессионный анализ, таким образом и соотносятся показатели дефолта/погашения кредита. Если характеристика является персональной (возраст, цвет кожи, рост, место проживания), то для моделирования она будет случайной – это не дискриминация. Пенсионные фонды, кстати, тоже учитывают в своих актуарных моделях возраст, пол и среднюю продолжительность жизни.
3. Наиболее важными аспектами ML- моделей являются предварительная обработка данных и разработка/отбор признаков. Личная финансовая история и личные обстоятельства сильно коррелируют с социальным классом и принадлежности к меньшинству. Но существуют ли доказательная база того, что при одинаковом доходе, уровне образования, возрасте, поле некоторые этнические группы чаще не выплачивают кредиты? Определений дефолта множество и зависит от того, как «резать» данные, но «этническая принадлежность» законно не входит в алгоритм данных по скорингу. Единственные данные, которые должны применяться — это личная финансовая история и обстоятельства.
4. Как я понимаю, боль регуляторов в том, что ИИ/МО может "научиться" дискриминировать меньшинства по какому-то признаку, если, например, есть сильная тенденция к одному местоположению. Речь о том, чтобы алгоритмы не создавали предвзятость, которая приведет к «ловушке бедности» (моделирование эту предвзятость увековечит, что станет настоящей проблемой). Но как мне кажется, это не совсем проблема алгоритмов. Банки вряд ли сочтут экономически обоснованным кредитовать какие-то группы по одинаковой ставке (и не потому, что они меньшинства, а потому что у них выше вероятность дефолта исходя из машинных данных). А если регуляторы хотят навязать модели кредитования в соответствии со своими политическими амбициями, тогда это должна быть программа финансирования возросших потерь и профилей риска. Это их же право и желание вмешаться, предоставив меньшинствам справедливую услугу кредитования на деньги налогоплательщиков, и субсидирования риска тем, у кого недостаточно ресурсов.

0
Комментарии
-3 комментариев
Раскрывать всегда