Stability AI выпустила модель Stable Audio для генерации музыки Статьи редакции
Есть бесплатная версия.
14K
показов
5.6K
открытий
- Stable Audio — диффузионная модель, которая генерирует аудиозаписи по текстовым запросам, рассказала Stability AI. Её обучали на дата-сете из текстовых метаданных и более чем 800 тысяч аудиофайлов с готовыми композициями, звуковыми эффектами и инструментальными партиями общей длительностью свыше 19,5 тысячи часов.
- Данные для обучения компании предоставила AudioSparx — она владеет библиотекой музыки для коммерческих целей. Это значит, что Stability AI получила право на использование защищённого копирайтом контента, пишет The Verge.
- Пользователям предлагают три тарифа. Первый — бесплатный: можно генерировать по 20 фрагментов в месяц длиной не более 45 секунд. Профессиональный обойдётся в $11,99 в месяц без учёта налогов и позволит генерировать 500 треков в месяц продолжительностью по полторы минуты. Условия корпоративного тарифа обговариваются в индивидуальном порядке.
- Использовать сгенерированные композиции в коммерческих проектах могут только платные подписчики. Тренировать свои ИИ-модели на полученных треках также запрещено.
- В пользовательской справке Stability AI уточняет, что с помощью Stable Audio можно создавать не только полноценные композиции, но также отдельные инструментальные партии и звуковые эффекты.
Примеры полноценных композиций
Примеры отдельных инструментальных партий
Примеры звуковых эффектов
Компания не первая, кто создаёт подобные нейросети: например, OpenAI представила модель Jukebox в 2020 году, а у Google есть AudioML для создания мелодий на основе звуковых подсказок и MusicLM для генерации музыки по текстовому описанию.
- Meta (запрещена в России) выпустила генератор музыки MusicGen в июне 2023-го, а в августе представила AudioCraft — модель для создания звуков и эффектов окружающей среды.
забавно смотреть как обесценивается самовыражение людей, поэзия, арт, музыка, видео скоро и тд) что там останется в конце?)
Пока ИИ создаёт конкуренцию только авторам вторичного говна, так как сам генерирует вторичное говно.
думаю самые крутые штуки скрыты от обычной аудитории и разрабатываются втихую, при таком количестве инвестиций в индустрию можно не спешить с публичностью
Редкий человек искусства способен не быть "автором вторичного говна" в начале своего творческого пути. То же самое касается программистов-джунов. Иначе говоря - ИИ способен вытеснить только начинающих, но как тогда этим начинающим набираться опыта?
конец.
спасибо за столь подробное экспертное мнение, вы очень проницательны и бесконечно мудры
В примерах только второй synthpop, приемлемо вышел.
Остальное откровенная лажа как и прочие аудио нейросетки
.
Особенно мимо с гитарным овердрайвом.
Слышно, что источником был ламповый amplifier, но на выходе получается тупая склеенная нарезка из исходников по звучанию.
Магии нет.
с момента "как это генерить музыку?" до "только второй synthpop, приемлемо вышел" сколько прошло? год-два?) через 2 года можно будет актеров менять в кино и гитару менять на пианино, через 5 будут альбомы по промту)
Это глупость уровня "вот, сегодня высадились на Луне, значит через 10 лет уже на Марсе" или "вот, ездили на паравозах, теперь на авто, лет 10 — и будут летающие автомобили" или "вчера мобилы были кнопочные, сегодня смартфоны, значит уже завтра у всех будет чип в голове вшитый" или "вот, смогли победить бактерии простейшие, значит завтра медицина победит все болезни, включая рак".
Нет. Зачастую происходит скачок в развитии. И пик остается пиком. Как пик цивилизации в целом далеко позади в 70-ых
уверен что ии станет катализатором всего что вы тут написали, и до марса подтолкнет и рак получше будет лечиться
вы описали отрасли с очень большим порогом входа, в ии порог поменьше, больше аудитория, открытые решения и оочень много денег, так что будет что-то удивительное;)
до вашего пика еще очень далеко
В будущее у меня нет доступа.
Я говорю про сейчас.
аа, ну так купи подписку Яндекс Будущее за 99 рублей в месяц, у них там норм кешбэк на комментарии сейчас
Ты что, ты же знаешь как я ненавижу Яндекс и хуесошу их говноконтору при каждом удобном случае.
Зачем ругаться. Я же про сегодняшний результат говорю, сейчас он не очень.
А так, я против что ли? Нет, пусть развивают.
Может быть, магии добиться и не пытались
чувства
subtle
?
В конце технологической сингулярности будет синтез интеллекта человеческого и нейросетей.
В конце мы будем слушать Нейропанк и ПопсИИ на волнах постчеловеческой эпохи под антииндивидуальным правлением автократической ИИ-машины.
звук машины и салюта очень смутно похожи. .откровенное фуфло
Для начала и это неплохо. К тому же, есть успешные моменты
А в жизни так и есть, ты не обращал внимания просто
aiva.ai
https://www.youtube.com/watch?v=Emidxpkyk6o
В мире вон чё делается, а наш какую-то хуйню затеял
Недурно. Электруха, конечно, не уровня Ван Халена, но всё же (-:
Занятно, что гугл снова соснул отравленных, как и в случае с OpenAI.
Перспектива создавать самому себе произвольное количество музыки, книжек и, наверное, когда-нибудь фильмов, конечно, будоражит меня как потребителя.
С другой стороны, страшно.
До такого еще очень далеко, вряд ли на нашем веку что-то подобное произойдет.
В любом случае, рано или поздно это произойдет. Жаль, что не доживем.
Прикольно, пошел генерить 20 треков для манги ) сайт конечно лежит пипец
Пригожин превратился в кота Шрёдингера https://mangatv.shop/api/video/jNlfQS-fS9ZGcMn8CXTON.mp4
А качество звука там можно менять? Лень заходить.
Все фигня, пускай переделывают
как фоновая музыка для ютуберов в целом норм но я рад что это пока что не заменит музыкантов кто пишет не для ютуба