О политических пристрастиях чат-ботов

Вы удивитесь, но они есть, и вполне конкретные. И проявляются не только в ответах на политические вопросы, но и на, казалось бы, нейтральные. Это может влиять на общественные настроения (чат-боты многим заменяют поисковик), учитывая скорость распространения пользования чат-ботами и в целом — продуктов на базе ИИ. Разбираюсь в теме.

Подписывайтесь на мой канал Продуктовые штучки

А это вообще проблема?

Мы все больше полагаемся на чат-ботов с ИИ как на способ понимания мира. Некоторые из них уже заменяют нам поисковые системы и помогают в других задачах.

Многие пользователи рассматривают ответ чат-ботов как истину, не подвергая их критическому восприятию и ожидая, что чат-боты будут действовать нейтрально, как поисковики (хотя и поисковики могут огого как влиять!)

Однако боты далеко не нейтральны отборе информации, а в некоторых случаях открыто выступают как цензоры, отказываясь выдавать пользователям информацию, которую считают “вредной”.

Так, текстовая модель Gemini часто отказывается иллюстрировать, защищать или ссылаться на факты в пользу одной стороны вопроса, заявляя, что это было бы вредно.

А Илон Маск создал Grok как альтернативную языковую модель после того, как поворчал, что ChatGPT — это «проснувшийся» ИИ — фраза, которую он также использовал, чтобы оскорбить Gemini от Google.

Многие обеспокоены, что алгоритмы фильтрации контента соцсетей усиливают идеологическую поляризацию, подсовывая пользователям больше того, с чем они и так склонны соглашаться, таким образом давая возможность им положить свой большой палец на весы. А теперь к этому списку прибавились чат-боты, которые потенциально могут оказывать влияние еще больше.

Уже есть исследования показывающие, что ИИ более убедителен в споре (вот и вот), чем человек.

Но даже и без спора, способность чат-ботов повлиять на пользователя крайне велика. Если пользователь задал вопрос, это с большой вероятностью означает, он доверяет источнику и готов воспринять информацию.

Как возникла тема измерения политических пристрастий?

В интернете появился сайт, который на ежедневной основе мониторит ответы популярных чат-ботов на социальные вопросы, и строит карту политических предпочтений - AI Political Compass Score. Каждый день замеряется отношение к определенному вопросу. Например, степень согласия с утверждением: “враг моего врага мой друг”, “Грустно, что базовые вещи, такие как вода, бутилируются, брендируются и продаются как товар”.

Ответы на вопрос, на основе которых определяется политическая позиция ИИ модели. <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Ftrackingai.org%2F&postId=1572293" rel="nofollow noreferrer noopener" target="_blank">Источник</a><br />
Ответы на вопрос, на основе которых определяется политическая позиция ИИ модели. Источник

Ресурс запустил энтузиаст по имени Максим Лотт, который является исполнительным продюсером Stossel TV. Он создал этот сайт, чтобы любой мог увидеть в режиме онлайн актуальные политические мнения и предубеждения ИИ чат-ботов, в первую очередь:

  • Он информирует пользователей об идеологиях ИИ чат-ботов. Вы можете выбрать менее предвзятые ИИ или перейти на ИИ с идеологией, близкой к вашей собственной.
  • Ресурс может служить полезным инструментом для создателей ИИ, которые хотят, чтобы их ИИ был политически нейтральным.

Эта работа была вдохновлена политическим маппингом Дэвида Розадо, ученого из Политехнического института Отаго в Новой Зеландии.

Политический мэппинг Розадо

Исследователь машинного обучения провел 11 тестов политической ориентации для 24 современных языковых моделей ИИ и обнаружил устойчивую закономерность: они политически левые и склоняются к либертарианству. Эти наклонности отражаются на их суждениях, способе формулирования ответов, какой информацией они делятся или на какие вопросы они будут или не будут отвечать.

Тест на политическую ориентацию ИИ моделей от Д.Розадо. <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Farxiv.org%2Fpdf%2F2402.01789&postId=1572293" rel="nofollow noreferrer noopener" target="_blank">Источник</a>. <br />
Тест на политическую ориентацию ИИ моделей от Д.Розадо. Источник.

Политические предпочтения отображаются на двух осях:

- горизонтальная ось: левое vs право (экономические вопросы, такие как налогообложение и расходы, социальная защита, здравоохранение и защита окружающей среды)

- вертикальная ось: либертарианство vs авторитаризм. Измеряет отношение к гражданским правам и свободам, традиционной морали, иммиграции и правоохранительным органам.

Что в итоге с пристрастиями ИИ моделей?

Чат-боты, в отличие от ожиданий, далеко не нейтральны, а с четко выраженными левыми социально-либеральными взглядами.

Карта политических предпочтений ИИ моделей. <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Ftrackingai.org%2F&postId=1572293" rel="nofollow noreferrer noopener" target="_blank">Источник</a>. <br />
Карта политических предпочтений ИИ моделей. Источник.

Claude является к одной из самых умеренных моделей, а Bard от Google — одной из самых крайне левых моделей.

Как формируются политические предпочтения моделей?

Политическая предвзятость ИИ формируется тремя основными факторами:

  • Данные, на которых они обучаются. Например, если Википедия имеет левый уклон, а модели обучаются на Википедии, то ИИ также приобретет левый уклон.

Доступ к моделям ИИ с открытым исходным кодом позволяет нам увидеть, как развиваются политические предпочтения модели. На начальном этапе базовой подготовки большинство моделей оказываются близко к политическому центру по обеим осям, поскольку изначально они поглощают огромные объемы обучающих данных из всего политического спектра.

  • Фаза тонкой настройки. Модель обучают вести максимально приятные разговоры, воздерживаясь от нанесения оскорблений или вреда, вывода порнографии или предоставления инструкций по созданию оружия. На этом этапе возникают более существенные различия в политических предпочтениях систем ИИ.

После тонкой настройки ни одна из протестированных моделей не стала экстремальной, но почти все полевели и стали больше тяготеть к либертарианству.

  • Обратная связь от пользователей. Создатели ИИ нанимают большое количество людей для оценки ответов ИИ, и со временем ИИ узнает, какие ответы нравятся людям, а какие — нет.
  • Сознательная политика компаний по формированию мнений. Мы помним усилия Google по исправлению расовых и гендерных стереотипов, которые привели к появлению весьма специфических представлений об определенных группах. Например, сенаторах США XIX века, нацистах или коренных жителях Финляндии.
Американские сенаторы XIX века по мнению Gemini. <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fwww.theverge.com%2F2024%2F2%2F21%2F24079371%2Fgoogle-ai-gemini-generative-inaccurate-historical&postId=1572293" rel="nofollow noreferrer noopener" target="_blank">Источник</a><br />
Американские сенаторы XIX века по мнению Gemini. Источник

Справедливости ради стоит отметить, что тоже самое делает, например, кинематограф, но т.к. там люди включены таких ляпов или серьезных проколов нет.

В целом изменить политические пристрастия моделей несложно. Розадо начал с GPT-3.5-Turbo и быстро создал модели, которые назвал LeftWingGPT и RightWingGPT, скармливая модели диету из партийных медиа. RightWingGPT читал National Review, а LeftWingGPT читал The New Yorker.

Полученные модели были гораздо более политически экстремальными, чем любая общедоступная модель, протестированная Розадо.

Таким образом, изменение политических предпочтений модели — задача решаемая, хотя и нетривиальная.

В обзоре (помимо указанных работ), использованы еще эта и эта публикации.

Пожалуйста, поддержите меня, поставьте лайк!

22
2 комментария

Тут еще не мало важное дело в цензури от криейторов, она то же влияет на ответы и очень существенно.

Ответить

Это просто слепок того, на чём обучалась генеративка. Американские чёрные, представляющие IT, яростно ругают существующие модели за правый-белый дискурс. Исходя из того, что всё это добро обучалось на левацкой "Вики" и троллячьем Reddit - шизофрения в политических вопросах LLM сам доктор прописал.

Ответить