Внедрение ИИ в риск-менеджмент — это часть дигитализации многих процессов в нашей компании, одно из самых новых и модных направлений. В нашей компании ИИ используется в кредитных рисках, чтобы правильно обрабатывать новости об эмитентах и контрагентах.
С помощью алгоритма на базе искусственного интеллекта отсеиваются неважные новости, и кредитный риск-менеджер получает на выходе ежедневные оперативные сведения.
В результате формируется база для принятия решений: риск-менеджер видит, как изменился новостной фон, на какие новости нужно обратить внимание, что можно поставить на пересмотр и какой лимит закрыть.
Вторая фаза нашего совместного проекта с командой прикладных разработок проекта iPavlov заключалась во внедрении дообучения ИИ, что по мере сбора новых размеченных данных (обогащения датасета) позволит повысить точность алгоритма, а также скорректировать его работу под текущую ситуацию на финансовом рынке.
С внедрением ИИ нам достаточно иметь одного «оператора процесса», который обладает исключительной экспертизой, досконально знает методологию, умеет вести технологические проекты. В нашем случае кредитный риск-менеджер выступает в роли гида или проводника для рабочей машины, которая выполняет рутинные операции сама.
Финансовый рынок не стоит на месте, будут создаваться новые продукты и решения, которые нужно уметь обрабатывать. Наша компания идёт по пути дигитализации, где мы отдаём машине всё, что не может (рутинные, затратные процессы) или не успевает делать человек, но без людей, естественно, пока в риск-менеджменте не обойтись.
Насколько я понимаю, вы можете применить подобную технологию для автоматизации маркенинговых исследований отзывов о продукте и о продуктах основных конкурентов. Или в данной задаче есть свои подводные камни?
Добрый день, спасибо за комментарий. Можем применить. Подводные камни - это собрать датасет.
Спасибо, интересно!
Не совсем понятен процесс сбора первичной семантики. Ведь для того, чтобы ии начал обучаться различению важных и неважных новостей, ему нужно скормить словарь важных и неважных ключевых слов. Правильно? Если да, то по каким принципам это словарь составляется?
У меня например сейчас собран датасет в текстовом виде. Задача отсеять 95% шлака. Я бы с радостью автоматизировал отсев (например, руками профессионалов в ии), но для этого алгоритму нужно как-то объяснить что шлак, а что нет.
Делал похожую поделку. Распарсил новостной сайт за год (брал только заголовки). Слова нормализовал и отрезал пустые слова по стоп-листу. Затем графиком нарисовал частоту упоминания этого слова за день: гипотеза в том, что если какое-то явление начинает маячить день-два, то это какой-то локальный хайп, особенно если это упоминание компании, и надо его затестить на корреляцию с ценой акции.
Нужно прикрутить named entity recognition обязательно, а то слов много, а смысла мало)