Искусственный интеллект против себя: Вырождение генеративных моделей в эпоху ИИ

Путь к вырождению: Когда генеративные модели обучаются на материалах, созданных ИИ
Путь к вырождению: Когда генеративные модели обучаются на материалах, созданных ИИ

Всего полгода назад мир познакомился с ChatGPT, а сегодня многие ведущие компании либо уже применяют генеративные ИИ-технологии в своей работе, либо разрабатывают на их основе новые продукты. Однако ранее большие объемы данных, используемых для обучения моделей, таких как GPT, Stable Diffusion или Midjourney, состояли из материалов, созданных людьми, такими как книги, статьи и фотографии. С расширением использования ИИ возникает все больше контента, созданного машинами. Что произойдет, когда генеративные модели начнут обучаться на данных, созданных другими ИИ-моделями? Исследователи из Великобритании и Канады изучили эту проблему и опубликовали статью в журнале arXiv. Они пришли к выводу, что такая ситуация вызывает тревогу по поводу будущего генеративного ИИ: "Мы обнаружили, что использование контента, сгенерированного моделями, для обучения приведет к необратимым дефектам в будущих поколениях моделей". Это означает, что при обучении на данных, созданных другими моделями, происходит вырождение моделей со временем, когда они постепенно забывают оригинальное распределение данных и становятся менее эффективными, совершают больше ошибок и теряют вариативность в своих ответах и создаваемом контенте. Авторы статьи предлагают решения этой проблемы, которые требуют массовой маркировки данных и усилий со стороны производителей контента и ИИ-компаний для отличия материалов, созданных человеком и машиной. Эта проблема также вызывает беспокойство у регуляторов, которые требуют большей прозрачности в обучении ИИ, достоверности ответов и наличия возрастных фильтров. Итальянские власти запретили использование чат-бота OpenAI ChatGPT из-за нарушения защиты данных, что привело к расследованиям и в других странах Европейского союза. Ожидается, что закон об искусственном интеллекте, который вступит в силу в 2024 году в ЕС, потребует раскрытия наборов обучающих данных, что может сделать многие компании, создающие ИИ-модели, уязвимыми для судебных исков.

Если эта статья была вам интересна, оцените ее лайком, а также подпишитесь на Телеграмм канал ,там больше информации и она появляется быстрей.

88
12 комментариев

Получается дегенеративный ИИ?

3
Ответить

Именно)

Ответить

Быстрее бы все ИИ навернулись, никому не нужны.

Ответить
Комментарий удалён модератором