Технически это уже является политикой Reddit, но теперь компания обеспечивает ее соблюдение, обновляя файл robots.txt — основную часть сети, которая определяет, каким образом веб-сканерам разрешен доступ к сайту. Как по мне, эта новость звучит как “лавочка с драгоценным данными прикрывается”. Всё движется к тому, что парсить станет намного сложнее, а модели будут дешевле данных. Доступ к api Reddit стоит дорого, к X - тоже. Если все встанут на путь закрытия, ничего не останется, кроме как красть или покупать.
Figma не обучает свою модель на пользовательском контенте. По крайней мере, так она заявляет.- на чем же тогда она обучается?) все таки для нейросети нужно много вариантов
Мне кажется, что все ждали усиления этой борьбы с ботами, только что-то долговато они тестить будут!