Как нейроарт подорвал доверие
В сфере проблемы - хочу напомнить вот про такой кейс. Осенью 2022 DeviantArt запустил DreamUp и попытался успокоить авторов формулировками про защиту их прав, но изначально оставил им режим opt out. Сообщество восприняло это как согласие по умолчанию и устроило резкую обратную связь. Уже через часы площадка переписывала условия и коммуникацию, однако чувство, что работы могли оказаться в обучающих наборах без явного разрешения, никуда не делось. Это был первый сигнал о трещине в доверии между платформами и авторами.
DreamUp - это генератор изображений от DeviantArt, который делает картинки по текстовому описанию на базе Stable Diffusion. Его запустили в ноябре 2022, дали 5 бесплатных промптов всем пользователям, а дальше доступ через Core-подписку.
Медиа тогда зафиксировали две ключевые претензии. Первая - отсутствие понятной процедуры согласия на обучение моделей, когда создатель сам выбирает, готов ли он делиться стилем и корпусом работ. Вторая - неопределенность с компенсациями, если коммерческие модели используют данные сообщества. Creative Bloq прямо писали, что смена политики не снимает вопроса по сути, потому что внешние модели уже обучены на огромных корпусах и их не «разучишь» задним числом.
Параллельно на ArtStation случился массовый визуальный протест. Художники заполнили тренды баннерами против AI, чтобы вывести тему в публичную повестку. Площадка стала убирать протестные изображения с главной со ссылкой на правила, и локальная модерация мгновенно превратилась в медийный кризис: у профессионального сообщества закрепилось ощущение, что его не слышат, а витрины платформы начинают терять связь с происхождением изображений
Ars Technica подробно описывала механику протеста: от массового «залития» баннеров до попыток остановить будущий скрейпинг портфолио для новых датасетов. По сути, это была не дискуссия о качестве нейросетей, а спор о процедурах - кто и на каких основаниях решает, что можно забирать из общего культурного поля и превращать в обучающие наборы.
С тех пор конфликт никуда не делся, потому что он не про «за» или «против» технологии. Он про управление правами и прозрачность цепочки данных.
А как вы считаете - авторы должны различать происхождение контента с помощью явной маркировки, чтобы зритель понимал, что перед ним?
Как встроить ИИ в процесс, рабочие промпты и кейсы - подписывайтесь на мой ТГ-канал