Как оживить фото с помощью ИИ: разбираем на примере 3 нейросетей
Как ИИ оживляет фото
Чтобы сделать видео из фото сначала нейросеть считывает изображение и пытается разобраться: где фон, где человек, а где лицо. По этим данным искусственный интеллект строит внутреннюю 3D-карту кадра и понимает, какие объекты можно слегка подвигать.
Сверху на это накладываются сценарии движения: готовые пресеты или настройки пользователя. В одних сервисах можно загрузить изображение и выбрать готовый эффект, а в других — задать текстовый промпт, указать тип движения на фото и длительность ролика. На выходе получается видеофайл с заданным разрешением.
Какие типы анимации фото бывают:
- Движение камеры. ИИ имитирует панораму, зум или лёгкий параллакс: в этом случае передний план двигается чуть иначе, чем фон. Это самый быстрый способ превратить фото в видео без сложных настроек.
- Анимация деталей. На фото оживляются только отдельные элементы: вода, огонь, снег, дым, огни в окнах. Остальное остаётся статичным.
- Оживление портретов. Модель работает с мимикой лица: добавляет моргание, лёгкий поворот головы, улыбку, иногда синхронизацию губ со звуком. Здесь выше риск артефактов на видео, особенно если исходный портрет размыт или если фото очень старое. Тогда сначала его лучшее отреставрировать.
Короткие клипы из одного кадра. Некоторые сервисы умеют по фото и промпту собрать мини-ролик: комбинируют движение камеры, анимацию фона, текст и эффекты. Это уже ближе к генерации видео по изображению, а не просто к живому фото.
Зачем оживлять фотографии
Можно просто сказать — ну, интересно же посмотреть на себя в детстве в движении или показать бабушке её старое семейное фото с улыбающимися родителями. Но причин намного больше.
Маркетинг и соцсети бренда
Из статичных снимков делают короткие ролики для ленты и сторис: лёгкое движение камеры, анимация фона, немного мимики — и пост уже привлекает больше внимания, чем обычная картинка. Но есть риск, что скоро мы к этому привыкнем и уже не будем так сильно обращать внимание.
Реклама и промо
Когда нет бюджета на съёмку, нейросеть для оживления помогает собрать простое видео из фото для баннеров, сторис, маркетплейсов и промо-лендингов.
Обучение и презентации
Оживлённые портреты спикеров, чуть движущиеся слайды и инфографика делают материалы живее, при этом не надо подключать видеопродакшн и тратить деньги.
Архивы и семейные истории
Старые фотографии можно оживить мягкой мимикой и морганием — это работает и для семейных альбомов, и для музейных или исторических проектов.
Личный контент и блог
Живые фото идут в сторис, обложки постов и роликов, превью для клипов и подкастов.
Как выбрать нейросеть для оживления фото
Важны три вещи:
- качество анимации,
- качество сервиса,
- доступность из России.
Главный критерий — то, как именно нейросеть оживляет фото и насколько качественно это выглядит. На что обращаем внимание:
- Мимика лица. Глаза, рот, уголки губ должны двигаться естественно. Если человека перекосило, зубы расплываются, а улыбка получается пластиковой — сервис не годится.
- Детали и артефакты. Присмотритесь к волосам, украшениям, фону. Хорошая AI-анимация не размывает мелкие детали и не дорисовывает странные штуки вокруг лица.
- Старые фотографии. Если вы планируете оживлять старые снимки, важно, чтобы нейросеть аккуратно обращалась с шумом и царапинами и не делала кадр мыльным.
Хороший тест: взять одно фото и прогнать через несколько сервисов, а потом посмотреть ролики рядом — сразу видно, где живое фото выглядит естественно, а где хочется закрыть вкладку. Даже если все будут достаточно хорошими, на примере вы сразу почувствуете, что нравится больше.
Но даже самая качественная генерация видео мало радует, если сайт или приложение всё время тормозят. И тут мы переходим ко второму критерию — качество сервиса. Вот что важно:
- Скорость. Нормальная история — когда ролик длиной 5–10 секунд создаётся в пределах пары минут. Если вы ждёте в очереди 15–20 минут и больше — поищите что-нибудь другое, это слишком долго и неудобно для рабочих задач.
- Стабильность. Обратите внимание, как часто сервис выдаёт ошибки, подвисания, пустые результаты. Постоянные сбои во время генерации — сигнал, что на него будет сложно опираться в проектах с дедлайнами. Скорее всего, даже платная подписка не спасёт от косяков на стороне разработки или работы сервера.
- Предсказуемость. Хорошо, когда при одинаковых настройках вы получаете плюс-минус одинаковое качество, а не лотерею: то шедевр, то брак.
Третий момент — насколько легко вообще добраться до сервиса и оплатить его. Если нейросеть блокируется в РФ, придётся постоянно включать VPN. Для разовых экспериментов это терпимо, для регулярной работы — боль, так как многие российские сервисы наоборот не загружаются с включенным VPN. И придётся переключаться туда-сюда.
Самое удобное — это когда можно пополнить кредиты в сервисе обычной картой или через знакомые платёжки, СБП или Т-Пэй, не выдумывая схемы с криптой и зарубежными аккаунтами.
Тестируем нейросети для оживления фото
Для сравнения я взяла три нейросети с функцией оживления фото: MainConnect, Vidu и DeeVid. Тестировать их будем на одинаковых фотографиях, чтобы получить более объективные результаты. И сравнивать между собой — как раз то, что я советовала выше.
MainConnect
Главные удобства здесь — оплата российской картой, русскоязычный интерфейс и доступ без VPN. Ссылка на ресурс
Функция оживления фото работает на топовых моделях — Kling, Sora, VEO. Для этого нужно составить подробный текстовый промпт для анимации самому либо с помощью LLM типа ChatGPT — это снизит вероятность галлюцинирования. Кроме промпта, дополнительно нужно настроить разрешение видео, длительность (5 или 10 секунд), а также модель, которая будет оживлять картинку. Всё интуитивно и понятно.
Все генерации ниже заняли в среднем 1–1,5 минуты. Генерация одного 5-секундного видео стоит 15 кредитов.
Сначала попробуем оживить старое фото и затестируем анимацию лица. Чтобы нейросети было проще, возьмём фото без дефектов, в хорошем качестве. Промпт следующий:
Получилась хорошая анимация, даже интереснее, чем я планировал: на последних секундах лицо приобрело холодное bitchy-выражение, я этого не ожидал. Единственное — можно заметить лёгкое покачивание головы и перепад в освещении. Но в целом, с портретом нейросеть справилась отлично, не только оживила, но и как-то даже улучшила вайб фото.
Теперь посмотрим, как MainConnect справится с крокодилом. Хочу научить его плавать.
Крокодил весьма естественно двигает лапками и хвостом, на воде по мере движения появляются лёгкие блики. Единственное — лапки будто бы передвигаются по поверхности воды, а не в ней. Стоит учитывать такие нюансы на стадии написания промпта — еслии дотюнить описание, этого можно избежать.
А теперь посмотрим, как нейросеть анимирует поезд и при этом слегка оживит сеттинг вокруг.
Движение поезда плавное, галлюцинирования нет. Сеттинг тоже удался: видно лёгкую рябь на воде, кустик и траву, которые натурально покачиваются от ветра, но только на переднем плане — остальные кусты и трава статичны. Но это опять же недочёт промпта: я акцентировал внимание именно на объектах на переднем плане.
Какой главный вывод из этого мы можем сделать? В MainConnect можно создать супер реалистичные анимации разных сцен, особенно если максимально подробно и точно описать каждую деталь в промпте.
Vidu
У этой нейросети есть русскоязычный интерфейс, но нужен VPN для использования. Есть 3–4 бесплатные генерации. Для них нельзя изменить дополнительные настройки: просто загружаешь фото и пишешь текстовый промпт (в нашем эксперименте решил использовать одни и те же во всех трёх сервисах). Видео скачиваются с водяным знаком. Ссылка на ресурс
В бесплатном тарифе создание видео из фото может занимать очень много времени — сервис предупреждает об ожидании в 10–20 минут на одну попытку. Фактически результаты такие: на создание портрета ушло 7 минут, на крокодила — 3, а на поезд — 6.
Анимация портрета вышла смешной: начинается всё довольно неплохо, девушка игриво покачивает головой, а потом очень сильно подмигивает, явно не кокетливо. Явно на что-то намекает…
Посмотрим, как Vidu справится с крокодилом. Промпт тот же, хотя опыт с MainConnect показал, что стоило бы дополнительно прописать нахождение лапок над водой. Но вдруг нейросеть поймёт это сама…
Нет, чуда не произошло: тут крокодил оказался полностью над водой. Результат в целом похож на то, что получилось у MainConnect, но крокодил меньше шевелит передними лапками. Зато рябь на воде отличная.
Ну а теперь посмотрим, как отработает оживление поезда.
Несмотря на тот же промпт, анимация вышла странной: особенно на контрасте с MainConnect. Там нейросеть дорисовала вагоны, создала эффект уходящего за кадр поезда. А Vidu не осилил эту задачу и сделал движения камеры вместе с транспортом, дорисовав для анимации одинаковые кусты. А ещё поезд двигается неестественно медленно, что тоже не радует. Но вот рябь на воде вышла неплохая.
Видно, что собственные модели Vidu сильно уступают топовым Kling и Sora, на базе которых работает MainConnect. Хотя местами и у Vidu есть удачные решения, например — работа с водой.
DeeVid AI
Эта нейросеть англоязычная и недоступна без VPN, поэтому для неё мы будем переводить промпты на английский язык. На старте бесплатных кредитов хватает на 2 генерации видео по картинке. Интерфейс достаточно простой. В бесплатной версии видео сохраняется с вотермаркой. Ссылка на ресурс
Среднее время создания видео — 2–3 минуты.
Сохраняем то же текстовое описание и просто переводим на английский для чистоты эксперимента. Посмотрим, как DeeVid справится с портретом.
В начале движение тела и головы на портрете очень реалистичное и кокетливое, девушка двигается активнее, чем в предыдущих сервисах. Но вот с подмигиванием случилось фиаско: глаз закрывается очень странно и неестественно, как будто в тех конспирологических роликах про Марка Цукерберга. Так что с лицами DeeVid работает неидеально, возможно, стоит поработать над промптом, а возможно — сделать несколько генераций.
А вот с крокодилом вышло довольно неплохо: он бодро и даже слишком стремительно плывёт всеми четырьмя лапками, но те, что на ближнем плане, всё ещё находятся над водой. Сама вода выглядит естественно. Что не понравилось: на первые пару секунд мы теряем из кадра его нос, если бы видео мне нужно было для соцсетей и рекламы, я бы решил переделать.
Генерировать поезд пришлось уже с другого аккаунта — бесплатных кредитов на него не хватило. Получилось очень неплохо, все кустики реалистично колышутся на ветру, но поезд снова движется нереалистично медленно.
DeeVid довольно хорошо справляется с пейзажами и учитывает даже то, что не отражено в промпте, но немного галлюцинирует в портретах.
Сравнительная таблица: какая нейросеть оживляет фото лучше
Для удобства — результаты тестирования я собрала в одну таблицу и прописала все важные для меня метрики.
Как получить идеальный результат: советы экспертов
Собрала все советы в одном месте, чтобы результат получился качественным.
Какой должна быть исходная фотография:
- Чем выше качество, тем лучше. Нечёткие, сильно сжатые кадры почти всегда дают артефакты на видео.
- Один человек крупным планом. Для оживления портретов лучше, когда в кадре одно лицо, видно глаза, рот, контур головы, нет сильного поворота в профиль.
- Без агрессивных фильтров. Потому что жёсткая бьюти-ретушь, блёстки, маски, AR-фильтры мешают нейросети понять, где кожа, где тени, а где реальные черты.
- Не обрезайте лоб и подбородок. Оставьте немного пространства сверху и снизу, чтобы ИИ мог аккуратно двигать голову.
Как избежать артефактов и искажений:
- Следите за фоном. Сложные узоры, коллажи и текст на фоне увеличивают шансы, что что-то поедет при движении камеры. Проще фон — меньше сюрпризов.
- Очки, украшения, волосы. Очки с бликами, крупные серьги, волосы на лице часто плывут при анимации. Если есть выбор, берите кадр без этого или с минимальными перекрытиями.
- Выбирайте мягкую анимацию. Чем сильнее поворот головы и чем активнее мимика, тем выше риск странных искажений. Для важных кадров лучше лёгкое моргание и небольшой наклон.
- Сравнивайте несколько вариантов. Если сервис даёт несколько пресетов, прогоните одно фото через разные — сразу видно, какое живое фото выглядит естественнее остальных.
Как работать со старыми и повреждёнными снимками:
- Сначала восстановление, потом анимация. Старые фотографии лучше предварительно подчистить: убрать крупные царапины, повысить резкость и размер. Это можно сделать в любом фоторедакторе или отдельной ИИ-реставрации. Например, через Nano Banana Pro.
- Не переусердствуйте с шумодавом. Полностью заламинированное лицо без текстуры кожи даёт кукольный эффект при анимации.
- Аккуратный режим движения. Для старых снимков выбирайте самый мягкий сценарий: лёгкое моргание, небольшое движение камеры, минимум эмоций. В общем, без экстрима.
Ещё пара мелочей, которые сильно помогают:
- Проверяйте разрешение видео. Сразу задайте нужный формат (вертикальный 9:16, квадратный 1:1 и т.п.), чтобы потом не терять качество при обрезке. Ну а также не переводить бесплатные (или платные) генерации не на то, что хотели изначально.
- Смотрите на водяной знак. Многие онлайн-сервисы ставят логотип поверх ролика. Если это критично для проекта, заранее уточните, в каком тарифе можно его убрать.