Технически для старых видео накоплена достаточная база, на основе которой ИИ что-то там скомпилирует. А для новых?
Я даже вектор атаки придумал. Берем ботов, и засылаем под новое видео, попутно засылая их в боле-менее значимые каналы и сети по тематике. Так можно например про видео кровь-кишки-распидорасило рассказывать, как хорошо вы выращиваете ромашки.
Проблема ИИ в том, что они в таком случае не защищены от Лапши практически никак.
Так можно например про видео кровь-кишки-распидорасило рассказывать, как хорошо вы выращиваете ромашки.
1. твое кровь-кишки-распидорасило забанят с помощью computer vision сразу, скорее всего превентивно 2. даже если нет, юзеры зарепортят как Misleading, и все равно забанят 3. т.к. любое misleading видео будет набирать небольшое количество просмотров и лайков, а также % дизлайков выше среднего (а за этим всем + их накруткой ютуб уже умеет следить), оно просто не попадет в выборку для обучения на ней
Проблема ИИ в том, что они в таком случае не защищены от Лапши практически никак.
проблема bias'ов всегда есть (у любого человека, например, тоже). Но когда этой проблемой занимаются сотни ML инженеров, собирающих огромные пайплайны и фидящие модели миллиарды-триллионы слов, она уже не такая заметная.
Доказательство тому - chatgpt, claude, bard, да какая угодно LLM. Туда 100% налили чуток "странных" данных, но это им не мешает. А в совсем крайних случаях эти bias'ы исправляются первоначальным промптом (не тот, что юзер пишет, а тот, что зашит от компании-разработчика LLM)
вперёд и с песней) расскажешь потом об успехах в статье на виси. качество результатов, конечно, зависит от данных, на которых обучали модель. только это не значит что она будет учиться на любом видео, которое ты зальёшь
Технически для старых видео накоплена достаточная база, на основе которой ИИ что-то там скомпилирует. А для новых?
Я даже вектор атаки придумал. Берем ботов, и засылаем под новое видео, попутно засылая их в боле-менее значимые каналы и сети по тематике. Так можно например про видео кровь-кишки-распидорасило рассказывать, как хорошо вы выращиваете ромашки.
Проблема ИИ в том, что они в таком случае не защищены от Лапши практически никак.
Так можно например про видео кровь-кишки-распидорасило рассказывать, как хорошо вы выращиваете ромашки.
1. твое кровь-кишки-распидорасило забанят с помощью computer vision сразу, скорее всего превентивно
2. даже если нет, юзеры зарепортят как Misleading, и все равно забанят
3. т.к. любое misleading видео будет набирать небольшое количество просмотров и лайков, а также % дизлайков выше среднего (а за этим всем + их накруткой ютуб уже умеет следить), оно просто не попадет в выборку для обучения на ней
Проблема ИИ в том, что они в таком случае не защищены от Лапши практически никак.
проблема bias'ов всегда есть (у любого человека, например, тоже). Но когда этой проблемой занимаются сотни ML инженеров, собирающих огромные пайплайны и фидящие модели миллиарды-триллионы слов, она уже не такая заметная.
Доказательство тому - chatgpt, claude, bard, да какая угодно LLM. Туда 100% налили чуток "странных" данных, но это им не мешает. А в совсем крайних случаях эти bias'ы исправляются первоначальным промптом (не тот, что юзер пишет, а тот, что зашит от компании-разработчика LLM)
вперёд и с песней) расскажешь потом об успехах в статье на виси.
качество результатов, конечно, зависит от данных, на которых обучали модель. только это не значит что она будет учиться на любом видео, которое ты зальёшь