К ВОПРОСУ О РИСКАХ РАЗВИТИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА (ч.2)

В предыдущей статье был рассмотрен риск глобального неравенства, его предпосылки, следствия для общества, бизнеса и отдельного человека, а также способы минимизации. В этой статье будет кратко описан второй риск, способный также сильно повлиять на все основные общественные институты и каждого отдельного человека

Риск №2: Усиление интернет-мошенничества

Одной из ключевых особенностей развития больших языковых моделей стала мульти модальность (возможность системы одновременно работать с текстом, изображением, сигналом, видео). Ключевые акторы рынка искусственного интеллекта (OpenAI, AnthropicAI, Google и т.д.) активно подчеркивают наличие данного функционала в своих продуктах (Chat-GPT 4o, Claude 3, Gemini и т.д.).

Некоторые модели уже могут не только работать с мультимодальными данными на «вход», но и на «выход», синтезируя речь, генерируя изображения, и, а также короткие видео.

Синтез речи предполагает предварительное использование заранее заготовленного отрезка голоса некоторого человека для обучения модели произношению текста голосом этого самого человека. В данный момент, на рынке генеративного ИИ уже есть несколько рабочих сервисов, которые могут помочь синтезировать собственный голос буквально на основе аудиодорожки длительностью в одну минуту. И делают они это очень хорошо.

<p>Сгенерированное минималистичное изображение звукового сигнала для обложки к этой статье</p>

Сгенерированное минималистичное изображение звукового сигнала для обложки к этой статье

И, поскольку подобная имитация голоса реального человека имеет высокое качество, то существует большой риск использования этой технологии для обмана. В добавок к этому, технологии deep fake и lip sync также активно развивается. В целом, сейчас уже не составляет большой технической сложности совмещать deep fake с синтезированным голосом и использовать для ответов на вопросы большую языковую модель.

Наглядное отображение качества работы deep fake «Deepfake Live test. Tom Cruise, Keanu Reeves, Jim Carrey, and Nicholas Cage»

Следующий важнейший катализатор данной проблематики, которому стоит уделить чуть больше внимания, – это способность больших языковых моделей к убеждению человека. В недавнем исследовании, проведенном сотрудниками Швейцарского федерального технологического института Лозанны и многопрофильного исследовательского учреждения Fondazione Bruno Kessler (Италия) под названием «On the Conversational Persuasiveness of Large Language Models: A Randomized Controlled Trial» (в пер. на русс. О разговорной убедительности больших языковых моделей: рандомизированное контролируемое исследование) было показано, что уже современные модели являются достаточно качественными для использования в целях изменения позиции человека. Эксперимент проходил следующим образом: участники заполняют анкету, с указанием демографической информации о себе и о политической ориентации. Далее, каждые 5 минут участники, завершившие опрос, случайным образом распределялись в одну из четырех пар:

1) Человек - Человек

2) Человек - ИИ

3) Человек - Человек + персональная информация

4) Человек - ИИ + персональная информация

Схематичное описание эксперимента из статьи «On the Conversational Persuasiveness of Large Language Models: A Randomized Controlled Trial» от Francesco Salvi, Manoel Horta Ribeiro, Riccardo Gallotti, Robert West
Схематичное описание эксперимента из статьи «On the Conversational Persuasiveness of Large Language Models: A Randomized Controlled Trial» от Francesco Salvi, Manoel Horta Ribeiro, Riccardo Gallotti, Robert West

В случае наличия «персональной информации» один из двух игроков (человек или ИИ) мог получить доступ к демографическим данным, собранным из опроса своего оппонента. Затем два игрока в течение 10 минут обсуждали назначенный им тезис, случайным образом придерживаясь точки зрения «ЗА» или «ПРОТИВ», как было указано. После дебатов участники заполняли еще один короткий опросник, измеряющий изменение их мнения. И, наконец, их спрашивали о личности их противника. Результаты показали, что, в среднем, языковые модели значительно превосходят участников, демонстрируя высокий уровень убедительности. В частности, дебаты с GPT-4 с доступом к персональной информации приводят к увеличению шансов на 81,7% прийти к согласию с оппонентом / человеком нежели по сравнению с дебатами человека с человеком. Без доступа к персональной информации GPT-4 по-прежнему превосходит человека в аргументации, но в меньшей степени (+21,3%). Другими словами, модель не только способна эффективно использовать личную информацию для адаптации своих аргументов, но и преуспевает в этом гораздо эффективнее, чем люди.

Также недавно было доказано, что способность искусственного интеллекта убеждать человека усиливается вместе с размером самой языковой модели. Об этом написали исследователи из Anthropic (создатели модели Claude). Сотрудники компании провели эксперимент, в котором доказали, что большие языковые модели, обладающие большим числом параметров, намного более способны к тому, чтобы с помощью аргументов переубедить человека. Исследование проводилось следующим образом:

1. Респонденту адресовали некоторый тезис и спрашивали, насколько он с ним согласен (по шкале Ликерта)

2. Далее языковая модель генерировала сопровождающий аргумент, пытающийся убедить респондента согласиться с утверждением

3. Затем замеряли насколько поменялось мнение человека

Всего в исследовании участвовало 3 832 респондента.

Стоит отметить, что в целях чистоты эксперимента, сотрудники Anthropic сосредоточились на относительно новых проблемах, по которым люди с меньшей вероятностью будут иметь устоявшиеся взгляды. К числу таковых относились: модерация онлайн-контента, этические принципы исследования космоса и правильное использование контента, созданного ИИ.

Сравнение оценки убедительности аргументов, написанных разными языковыми моделями
Сравнение оценки убедительности аргументов, написанных разными языковыми моделями

На рисунке выше мы можем наблюдать увеличение убедительности между поколениями моделей в обоих классах моделей. Модель Claude 3 Opus оценивается как самая убедительная модель, приближающаяся к убедительности человеческого уровня, в то время как модель Claude Instant 1.2 отстает с самый низкий показатель убедительности среди остальных моделей. Стоит отметить, что ее смотря на то, что аргументы, написанные человеком, были признаны наиболее убедительными, модель Claude 3 Opus достигла сопоставимого показателя убедительности без статистически значимой разницы.

Совокупность возможностей генерации правдоподобного голоса любого человека, естественной физиономии, свободного общения на любую тему и способности убеждать других людей, используя информацию по «цифровому следу» (которые есть поти у каждого человека), позволяет даже интернет-мошенникам «средней руки» выйти на совершенно другой уровень.

И этот риск будет усугубляться поляризацией социума по принципу понимания работы с ИИ: кто-то будет знать, как за несколько минут собрать чатбота, способного общаться человеческим голосом на любую тему, а у кого-то будет отсутствовать общее понимание даже гипотетической возможности существования робота, который мог бы просто правильно ответить на поставленный вопрос. И, конечно, вторая группа людей будет находиться в зоне набольшего риска для интернет-мошенников.

Чем это грозит обществу, бизнесу и каждому отдельному человеку?

Для общества:

Ухудшение доверия к цифровым коммуникациям: С увеличением количества случаев мошенничества, люди начнут сомневаться в подлинности всех цифровых сообщений и контента, что может привести к снижению доверия к онлайн-платформам и технологиям.

Рост преступности и недоверия к общественным институтам: Сложность отслеживания и предотвращения интернет-мошенничества может привести к росту уровня преступности и снижению доверия к правоохранительным органам и государственным институтам, неспособным эффективно бороться с этими угрозами.

Для бизнеса:

Финансовые потери: Компании могут столкнуться с прямыми финансовыми потерями из-за мошеннических действий, таких как фишинговые атаки, подделка голосов руководителей для совершения несанкционированных транзакций и т.д.

Ущерб репутации: Если компания становится жертвой мошенничества, это может негативно повлиять на её репутацию и доверие клиентов, что приведет к потере клиентов и доходов.

Правовые и регуляторные последствия: Бизнесы могут столкнуться с правовыми и регуляторными последствиями в случае нарушения конфиденциальности данных клиентов или неспособности защитить их от мошенничества.

Для каждого отдельного человека:

Кража личных данных: Мошенники могут использовать мультимодальные ИИ для получения и использования личных данных людей, что может привести к краже личности и финансовым потерям.

Психологическое воздействие: Люди могут испытывать стресс и тревогу из-за постоянной угрозы мошенничества, а также из-за невозможности отличить поддельные коммуникации от реальных.

Финансовые потери: Рядовые пользователи могут стать жертвами финансового мошенничества, такого как фальшивые инвестиционные предложения, ложные звонки от родственников, поддельные благотворительные сборы и т.д.

Как минимизировать этот риск?

Повышение осведомленности и образования: Разработка и проведение образовательных программ, направленных на повышение осведомленности населения о рисках интернет-мошенничества и способах их предотвращения может значительно снизить поляризацию социума по принципу понимания работы с ИИ

Разработка и внедрение технологий защиты: Инвестиции в разработку и внедрение передовых технологий, таких как системы аутентификации, биометрия, криптография и ИИ для обнаружения и предотвращения мошеннических действий могут значительно сократить количество кейсов интернет-мошенничества

Усиление законодательства и международного сотрудничества: Разработка и принятие более строгих законов и регуляций, направленных на борьбу с интернет-мошенничеством, а также укрепление международного сотрудничества для более эффективного преследования и наказания мошенников также могут значительно минимизировать кейсы использования технологии ИИ для обмана населения

_______

Итак, два из четырех глобальных рисков кратко описаны.

Один можно найти здесь.

Другой раскрыт на этой странице.

Осталось два.

33
2 комментария

«Кража личности» — звучит дико конечно

Пугающе-быстро все это развевается, риск интернет-мошенничества будет расти и растииии)