Как нейронки будут отличать правду от выдумки?
Последние месяцы я всё чаще сталкиваюсь с одной штукой, которая, кажется, станет большой проблемой.
Нейросети тянут данные из любых рейтингов подряд — от крупных медиа до материалов, которые и не претендуют на объективность.
И если раньше на такие тексты в большинстве ниш никто даже не обращал внимания, то теперь нейронки начинают использовать это в ответах, формируя «картину мира» пользователя.
И нейронки это подхватывают.
☝ Главный вопрос, который меня интересует:
А как ИИ в будущем собирается отличать реальную информацию от обмана?
Сейчас любой «эксперт» может публиковать подобные вещи.
Речь даже не о классических фейках, а вот этих «списках лучших», где точно нет реальной методологии, и подтвержденного опыта, но информация всё равно попадает в ответы моделей и влияет на выбор пользователя.
Если попробовать поставить себя на место разработчиков ИИ — что здесь делать? Какие сигналы использовать для валидации: автора? референсы? вес площадки? И всё это нужно проверять за секунды, пока формируется ответ.
Пока всё это выглядит как огромная серая зона.
Что думаете? Давайте набросаем идей, как это можно было бы регулировать? В следующем году посмотрим, кто оказался прав 😎
Подписывайтесь на Telegram Малюгин | Geeks.