Музыкальные клипы известных исполнителей, созданных с помощью нейросетей. Вы точно удивитесь!
Индустрия музыкальных видео всегда была полигоном для экспериментов – от новых способов съёмки до цифровых эффектов. Сегодня на смену традиционным методам приходит искусственный интеллект (ИИ), который превращает клипы в сюрреалистичные путешествия и поднимает вопросы о границах творчества.
Ещё пару лет назад первые ролики, созданные нейросетями, казались курьёзом, а сегодня ими никого не удивишь. Рассмотрим несколько ярких примеров: как зарубежных, так и российских – где ИИ сыграл главную роль, и узнаем, какую технологию применяли, кто работал над видео, чем эти клипы удивляют зрителя и как их встретила публика.
Пионеры ИИ-видео: LINDEMANN — Ich weiß es nicht (2019)
Ещё до того, как нейросети вошли в массовое использование, некоторые смельчаки опробовали их в видеоклипах. Один из первых примеров – LINDEMANN – “Ich weiß es nicht” (солист Rammstein Тилль Линдеманн) в 2019 году. Этот клип представлял собой абстрактный видеоарт, созданный большой командой художников и программистов. На тот момент не существовало готовых инструментов вроде Stable Diffusion, поэтому авторам пришлось разрабатывать решения практически с нуля. В числе соавторов значится художник Вадим Эпштейн – один из пионеров ИИ-арта. Они использовали генеративные алгоритмы, чтобы из наборов статичных изображений “вырастить” движущийся видеоряд. В итоге получилась причудливая черно-белая фантасмагория: искажённые лица, глаITCH-эффекты и метаморфозы, которые завораживают своей нелинейностью.
Первый российский нейроклип: Cream Soda — «Меланхолия» (2021)
Весной 2021 года московская электронная группа Cream Soda удивила всех, выпустив песню «Меланхолия» вместе с клипом, полностью созданным искусственным интеллектом. Видео придумал и собрал цифровой художник Антон Дворсон, который назвал нейросеть “цифровым художником” команды. При работе использовали сразу три нейросети – CLIP, StyleGAN2 и BigGAN. Алгоритм анализировал текст песни и подбирал визуальные образы: например, встретив слово «Санкт-Петербург» в тексте, ИИ брал изображение города и смешивал его с другими ключевыми словами строк
«Красота спасёт мир» по версии ИИ: АИГЕЛ — «Мир спасёт красота» (2022)
Российский электронный дуэт «АИГЕЛ» (Айгель Гайсина и Илья Барамия) тоже вошёл в историю, представив один из первых в стране полностью нейросетевых клипов. Видео на трек «Мир спасёт красота» вышло в начале 2023 года (сама песня релизнулась в 2022-м). Производство: режиссёром и “цифровым художником” выступила Евгения Шабунина известная как энтузиаст нейросетей. Она создала для группы целый абстрактный мир-сновидение, используя генеративные модели. Хотя точный софт не раскрыт, известно, что визуальные образы рождались из сочетания реальных фотографий и фантазии ИИ.
Когда ИИ встретил аниме: Linkin Park — “Lost” (2023)
В 2023 году ИИ-клипы ворвались в настоящий мейнстрим. Легендарная рок-группа Linkin Park выпустила видеоклип “Lost” – ранее неизданная песня, посвящённая 20-летию альбома Meteora. Этот клип сразу стал событием: по сути, это первое официальное музыкальное видео группы, созданное с помощью нейросети. Производство: над роликом работала креативная студия Shibuya во главе с режиссёрами Макеем Кучарой и Эмили Янг (проект pplpleasr, известная NFT-художница). Команда использовала платформу Kaiber AI для генерации визуальных фрагментов.
10 000 кадров кошмара: Disturbed — “Bad Man” (2022)
Не только поп- и электронные артисты обратились к нейросетям – рок- и метал-музыканты тоже активно экспериментируют. Американская метал-группа Disturbed в конце 2022 года выпустила анимационный клип “Bad Man”, целиком созданный с помощью ИИ. Производство: режиссёр Тристан Холмс взял на вооружение генератор изображений Midjourney. Он ввёл тысячи запросов, чтобы нейросеть нарисовала отдельные кадры, а затем склеил 10 000 полученных изображений в единое видео. На генерацию ушло около 30 дней кропотливой работы – даже с ИИ такие проекты требуют времени и терпения. Технология: Midjourney генерировал иллюстрации в комикс-стилистике: мрачные городские сцены, гиперболизированные фигуры людей и демонические персонажи. После этого каждый кадр дорабатывался, чтобы связать их в плавную анимацию.
Текст превращается в видео: Washed Out — “The Hardest Part” (2024)
Весной 2024 года произошло знаковое событие: вышел первый официальный клип, созданный новейшей генеративной моделью видео от OpenAI. Речь о композиции “The Hardest Part” электронного исполнителя Washed Out (Эрнест Грин). Производство: режиссёр Пол Трилло совместно с OpenAI задействовали экспериментальную нейросеть Sora, генерирующую видео по текстовому описанию. Это первая в мире работа, где музыкант и режиссёр напрямую сотрудничали с разработчиками ИИ-технологии для создания клипа. Пол Трилло объяснил, что он получил от Sora 55 коротких видеофрагментов по разным текстовым запросам и затем аккуратно смонтировал их воедино с помощью Adobe Premiere. Технология: Sora работает по принципу text-to-video: вы задаёте сцену словами, например “школьная спортивная площадка в 1980-е, закат, двое подростков держатся за руки”, – и нейросеть выдаёт несколько секунд видео. Так, фрагмент за фрагментом, был построен нарратив.
ИИ в поп-музыке: Юлия Савичева — «Девочка» (2024)
Когда нейросети добрались до российских поп-звёзд, стало ясно – технология выходит на широкий экран. Певица Юлия Савичева, известная с начала 2000-х, в 2024 году выпустила mood-video на сингл «Девочка», и оно целиком создано с помощью ИИ. Это не классический сюжетный клип, а скорее атмосферное видео, визуализирующее настроение песни. Концепция и производство: режиссёр ролика – художница Регина Шестаева. Она взяла личный архив Юлии – фотографии из детства, кадры старых фотосессий – и загрузила их в специальную нейросеть для генерации видеоряда. По словам Савичевой, ей хотелось передать через образы свои ощущения: мечты маленькой девочки стать артисткой, игры во дворе, первые сцены – и как с годами она обрела гармонию с собой. Технология: название конкретной ИИ-платформы не раскрывается, но, вероятно, использовались преобразования фотографий в видео (возможно, через Stable Diffusion или Runway). Нейросеть на основе снимков создала анимированные сцены: девочка бежит по волшебному лесу, рассыпает звёзды, летает на качелях среди облаков. Живых актёров в клипе нет – только генерированные нейросетью образы, плавно сменяющие друг друга в такт музыке.
Новая палитра для клипмейкеров
Приведённые примеры – лишь вершина айсберга. В последние два года нейросети применялись в клипах самых разных жанров по всему миру. Например, Kanye West и Ty Dolla $ign в рамках проекта ¥$ выпустили экспериментальное видео “Vultures”, где сначала с помощью Midjourney генерировались жутковатые образцы-иллюстрации, а затем они оживали через Runway Gen-2 – вышло настолько мрачно и сюрреалистично, что мурашки по коже.
Голландская рок-группа Within Temptation для сингла “Bleed Out” сняла своих участников на зелёном фоне, а студия RART Digital превратила их выступление в анимированный ИИ-мир: солистка поёт, окружённая фантазийными декорациями, созданными нейросетью.
Легендарная Queen даже перезапустила архивный трек “The Night Comes Down” (1973) с новым видеорядом: кадры молодого Фредди Меркьюри и компании были пропущены через ИИ-фильтры, которые придали им причудливый, слегка психоделический облик.
А в России буквально на наших глазах появляются всё новые ИИ-ролики - от рокеров «Танцы Минус» (клип «Алтайка» с живописными нейро-пейзажами)
До инди-исполнительницы МАЙВЛ (в видео «Ничего не будет после» сочетаются реальные съёмки и яркие вставки, сгенерированные нейросетью). Кажется, экспериментируют все – и именитые артисты, и андеграунд.
Что всё это означает для музыкальной индустрии? С одной стороны, ИИ даёт клипмейкерам новую палитру для самовыражения. То, что раньше требовало команд аниматоров и миллионов на CGI, теперь может создать небольшой коллектив энтузиастов с удачно обученной моделью. Визуальные решения, которые раньше были немыслимы, стали доступнее: будь то превратить музыкантов в комикс-персонажей или построить целые миры из текста. Многие молодые исполнители благодаря нейросетям получили шанс сделать эффектное видео без огромного бюджета.
С другой стороны, дискуссии о роли человека в творчестве только накаляются. Критики опасаются однообразия и потери “человеческого тепла” в таких работах. Не все зрители готовы принять диковинную эстетику нейроклипов – кому-то они кажутся хаотичными или “лишёнными смысла”. Некоторые художники и режиссёры видят в этом угрозу своей профессии.
Однако опыт показал, что лучшие результаты достигаются, когда человек и нейросеть работают в связке. Во всех описанных примерах идея и смысл исходили от живых авторов: музыкантов, режиссёров, художников. А на идею данной статейки натолкнул меня VCвчанин Юрий Буркин - За что ему большое спасибо )