Хочу еще немного расширить мнение насчет ИИ в финтехе, и заодно связать это с идентификацией личности.
В последнее время мы наблюдаем появление методов биометрической аутентификации, таких как распознавание лиц и сканирование отпечатков пальцев, основанных на алгоритмах искусственного интеллекта. Это сильно повышает безопасность. Но стоит понимать, что любую технологию можно использовать не только во благо. Существует алгоритм МО - генеративно-состязательные сети - это технология, которая, может генерировать ложные срабатывания и ложноотрицательные результаты в виде поддельных изображений и видео. Я думаю, что вы поняли, куда я клоню) Более поздним проявлением этого явления оказывается Deepfake. И уже есть случаи, когда биометрическую идентификацию смогли обмануть посредством вышеупомянутых Deepfake'ов (https://www.cybersecasia.net/features/cybersecurity-predictions-2020-facing-the-deepfake-threat/2). К счастью, сама технология, лежащая в основе Deepfake, также является технологией, которая может обнаруживать мошенничество.
Так вот к чему это я все. Первое - по моему скромному мнению, ИИ,в первую очередь стоит использовать для повышения безопасности финтех систем. Второе - безопасность превыше всего, и при появлении какой-либо тенденции стоит задать себе вопрос: используя какие-то новые технологии или следуя модным веяниям, не создам ли лазейку для хакеров, мошенников и т.п.?
Хочу еще немного расширить мнение насчет ИИ в финтехе, и заодно связать это с идентификацией личности.
В последнее время мы наблюдаем появление методов биометрической аутентификации, таких как распознавание лиц и сканирование отпечатков пальцев, основанных на алгоритмах искусственного интеллекта. Это сильно повышает безопасность.
Но стоит понимать, что любую технологию можно использовать не только во благо. Существует алгоритм МО - генеративно-состязательные сети - это технология, которая, может генерировать ложные срабатывания и ложноотрицательные результаты в виде поддельных изображений и видео. Я думаю, что вы поняли, куда я клоню) Более поздним проявлением этого явления оказывается Deepfake. И уже есть случаи, когда биометрическую идентификацию смогли обмануть посредством вышеупомянутых Deepfake'ов (https://www.cybersecasia.net/features/cybersecurity-predictions-2020-facing-the-deepfake-threat/2). К счастью, сама технология, лежащая в основе Deepfake, также является технологией, которая может обнаруживать мошенничество.
Так вот к чему это я все. Первое - по моему скромному мнению, ИИ,в первую очередь стоит использовать для повышения безопасности финтех систем. Второе - безопасность превыше всего, и при появлении какой-либо тенденции стоит задать себе вопрос: используя какие-то новые технологии или следуя модным веяниям, не создам ли лазейку для хакеров, мошенников и т.п.?