🧠🎥 Когда видео перестанет быть доказательством
Sora от OpenAI — не просто новая игрушка. Это момент, когда человечество впервые может сочинять реальность с нуля, не выходя из текстового поля. Любой — от школьника до мошенника — теперь способен описать сцену, и ИИ превратит её в «видеофакт».
Но вместе с восторгом приходит тревога. Ещё недавно видео было последним оплотом доверия: фото можно подделать, текст — соврать, но если «я видел это на видео» — значит, это правда — качественная подделка была доступна единицам, да и то не во всех случаях. Теперь — нет.
Границы между выдумкой и фактом растворяются. Персонажи оказываются в местах, где никогда не были. Умершие снова «живут» в клипах. Репутации, карьеры, общественные настроения — всё можно сгенерировать, если подобрать правильный промт.
Появляются новые категории проблем:
- кто владеет «лицом» человека в эпоху ИИ? Как запрещать моделям использовать чьё-либо лицо?
- кто отвечает, если подделанное видео разрушит чью-то жизнь или создаст угрозы безопасности?
- кто вообще определит, что «реально», если сгенерированное нейросетью видео убедительнее реальности?
Конечно, пока ИИ-видео ещё несовершенны — ошибки в движении, странные тени, нелогичные переходы — они хоть как-то выдают обман. Но это ненадолго. И чем лучше они станут, тем больше нам придётся сомневаться.
Основная проблема, которую нам предстоит решать в ближайшем будущем, — это разработка новой «метрики правды» и подходов к её проверке. Возможно, это будут антидипфейковые алгоритмы, которые анализируют сотни и тысячи различных фактов, выискивая в них противоречия; возможно, новые поколения сетей, способных по мельчайшим деталям определять подделки; а возможно — что-то ещё. Одно можно сказать наверняка: «критическое мышление» сегодня как никогда становится ценным — любые факты сейчас стоит анализировать через призму скепсиса.
Подписывайтесь на Telegram PromtScout.