Как нейронки будут отличать правду от выдумки?

Последние месяцы я всё чаще сталкиваюсь с одной штукой, которая, кажется, станет большой проблемой.

Нейросети тянут данные из любых рейтингов подряд — от крупных медиа до материалов, которые и не претендуют на объективность.

И если раньше на такие тексты в большинстве ниш никто даже не обращал внимания, то теперь нейронки начинают использовать это в ответах, формируя «картину мира» пользователя.

Пример: коллеги сделали «топ-30 агентств по продвижению в нейросетях» и поставили себя на первое место даже без попытки завуалировать, что они пишут сами про себя.

И нейронки это подхватывают.

☝ Главный вопрос, который меня интересует:

А как ИИ в будущем собирается отличать реальную информацию от обмана?

Сейчас любой «эксперт» может публиковать подобные вещи.

Речь даже не о классических фейках, а вот этих «списках лучших», где точно нет реальной методологии, и подтвержденного опыта, но информация всё равно попадает в ответы моделей и влияет на выбор пользователя.

Если попробовать поставить себя на место разработчиков ИИ — что здесь делать? Какие сигналы использовать для валидации: автора? референсы? вес площадки? И всё это нужно проверять за секунды, пока формируется ответ.

Пока всё это выглядит как огромная серая зона.

Что думаете? Давайте набросаем идей, как это можно было бы регулировать? В следующем году посмотрим, кто оказался прав 😎

Подписывайтесь на Telegram Малюгин | Geeks.

1 комментарий