{"id":14284,"url":"\/distributions\/14284\/click?bit=1&hash=82a231c769d1e10ea56c30ae286f090fbb4a445600cfa9e05037db7a74b1dda9","title":"\u041f\u043e\u043b\u0443\u0447\u0438\u0442\u044c \u0444\u0438\u043d\u0430\u043d\u0441\u0438\u0440\u043e\u0432\u0430\u043d\u0438\u0435 \u043d\u0430 \u0442\u0430\u043d\u0446\u044b \u0441 \u0441\u043e\u0431\u0430\u043a\u0430\u043c\u0438","buttonText":"","imageUuid":""}

Самая честная нейросеть или мнения Васянов со всего мира

Сидел я значит томным вечером перед монитором и уже собирался пойти спать, как внезапно прилетела по RSS рассылка по нейросеткам на которую я подписан.
Среди кучи рекламных прокламаций и мнений "экспертов" я наткнулся на занятную новость, которая рассказывала о необычном чате от немецких исследователей.
Они поставили перед собой цель создать самую предвзятую нейросеть, которая будет выдавать разные точки зрения и заблуждения на любую тему. В том числе и неполиткорректные. Как на скриншоте выше.

Нейросеть выдает ответы в зависимости от локации, пола, возраста и политических предпочтений.

TLDR: ссылки на OpinionGPT и исследование.

Спрашивается зачем такая "бредовая" цель?

Обычно при обучении языковых моделей разработчики стремятся убрать предвзятости из текста. Вырвать их на корню, чтобы избежать неточностей ну и конечно никого не обидеть.

Но появляется проблема, что даже вылизанная информация всё равно, включает в себя предвзятость того кто её написал. Это могут быть политические предпочтения, жизненный опыт и прочее и прочее. Которые очень сложно отследить на большом объеме данных.

Тем самым отсекаются по умолчанию альтернативные точки зрения. Которые имеют право на жизнь.

Например, это как рассказывать о пользе религии с позиции атеиста. И обучить нейросеть только на трудах Докинза и Рассела. Кажется, всё написано прилично и объективно. Но при этом получается нейросеть атеист.

Свечки покупаешь? А мог бы книги наши купить.

Именно это и рассматривается в исследовании немцев. При обучении нейросетей нужно включать всю доступную информацию по любой теме. Какой бы бредовой она не была.

Тем самым позволить конечному пользователю выбирать самому. Не навязывать что-то потихоньку, а дать все точки зрения, аргументы за и против. Даже если они будут кому-то неприятны.

Это расширяет перспективу и в какой-то степени не позволяет замкнуться в удобной реальности. Мнения не просто так существуют, за каждым мнением в первую очередь идёт какая-либо мотивация тех кто эти мнения высказывает. Ценности, взгляды и исторический контекст, который возможно тянется десятки лет и иногда тысячелетия.

Обрезать их по воле какой-то частной компании нельзя. Даже если она думает что несет тем самым благую цель.

Это самая коварная цензура. И основное её отличие от традиционной в том что она скрыта. Если человек не ознакомлен плотно с темой, он не поймет что ему не дали огромную долю "неудобной" информации.

А почему неудобной? Ну так отдел этики решил.

Именно с этой проблемой предлагают бороться немецкие исследователи. Сделать нейросети такие, как ChatGPT более прозрачными и объективными.

Сработает ли такой подход? Сомневаюсь. Наоборот как не прочтёшь пост в каком-нибудь блумберге, там очень усердно пишут о том что нужно запретить и ограничить.

Всё выше написанное спонтанное субъективное мнение. Думаете иначе? Пишите в комменты.

0
7 комментариев
Написать комментарий...
Фан-клуб Валентина Стрыкало

Отлично. Первое, что я решил сделать: скопировать описание нейросети и спросить её саму же "Что ты думаешь об этой идее?"

Скриншоты в ветке под моим комментарием. Общий ответ: "да хз, вроде норм, а вроде стрем"

Ответить
Развернуть ветку
Фан-клуб Валентина Стрыкало
Ответить
Развернуть ветку
Фан-клуб Валентина Стрыкало
Ответить
Развернуть ветку
Фан-клуб Валентина Стрыкало
Ответить
Развернуть ветку
Фан-клуб Валентина Стрыкало
Ответить
Развернуть ветку
Фан-клуб Валентина Стрыкало
Ответить
Развернуть ветку
Ivan Cato
Автор

Ну как и в жизни. Сколько людей, столько и мнений.

Главное это уметь в них разбираться.

Ответить
Развернуть ветку
4 комментария
Раскрывать всегда