Более 200 музыкантов и певцов призвали не разрабатывать ИИ-технологии, которые подрывают ценность человеческого труда Статьи редакции

И лишают авторов справедливой платы за работу.

  • Открытое письмо опубликовала НКО Artist Rights Alliance, защищающая права музыкантов, поэтов-песенников и исполнителей. Внимание на него обратили Axios и TechCrunch.
  • Под обращением подписалось более 200 представителей музыкальной индустрии: Джон Бон Джови (Bon Jovi — vc.ru), Pearl Jam, Стиви Уандер, Imagine Dragons, Jonas Brothers, Мак Демарко, Кэти Перри, Ники Минаж, Сэм Смит, Билли Айлиш и Finneas, Джей Балвин, Камила Кабейо, Билли Портер, Q-Tip, T-Rex, Шерил Кроу, Mumford & Sons, Миранда Ламберт, Дэн Смит (Bastille), Райан Теддер (OneRepublic), Луис Фонси, прекратившая деятельность R.E.M. и другие.
  • Авторы письма признают: технология обладает «огромным потенциалом», может служить источником вдохновения и помогать в создании «нового музыкального опыта». Однако некоторые участники рынка используют нейросети для «саботажа» и «подрыва репутации» исполнителей, авторов и правообладателей.
  • «Безответственное» использование ИИ угрожает «конфиденциальности, индивидуальности артистов, их музыке и заработку», говорится в письме. В качестве примера авторы приводят ситуации, когда компании обучают алгоритмы на музыке артистов без их разрешения. Существование таких инструментов уже сказывается на объёме гонораров, которые получают авторы, а в будущем последних могут и вовсе заменить алгоритмами.
  • Авторы письма призвали технологические компании, разработчиков и цифровые музыкальные сервисы «пообещать не разрабатывать и не использовать генеративные технологии, которые ущемляют и заменяют артистов-людей».
  • Исполнительный директор Artist Rights Alliance Йен Якобсен объяснил Axios, что речь не о необходимости ужесточить регулирование на законодательном уровне. Музыкальная отрасль просит технологическую о сотрудничестве — чтобы исключить безответственные практики, сохранить качество музыки и рабочие места.
R.E.M. Источник фото: BBC
  • В марте 2023 года более 1100 лидеров технологических фирм, инженеров и исследователей подписали открытое письмо, в котором попросили ИИ-лаборатории «срочно и как минимум на полгода приостановить обучение ИИ-систем, более производительных, чем GPT-4».
  • Сооснователь Microsoft Билл Гейтс тогда отметил, что это вряд ли решит «сложности, стоящие перед всей индустрией». Позже против чрезмерного регулирования ИИ выступили и руководители Renault, Siemens, Heineken, Airbus, Ubisoft и других компаний.
  • Что касается сферы искусства, то в апреле того же года Universal Music попросила Apple, Spotify и другие стриминги удалять музыку, созданную ИИ. А в августе FT со ссылкой на источники рассказала, что Google и Universal Music обсуждают возможность лицензировать голоса певцов и мелодии, чтобы энтузиасты могли использовать их для генерации новых песен с помощью ИИ.
  • В сентябре группа писателей подала иск против OpenAI, поскольку та якобы использовала их книги для обучения своих языковых моделей. Среди истцов: Джордж Р. Р. Мартин («Песнь льда и огня»), Майкл Коннелли (серия о детективе Гарри Босхе), Джонатан Франзен («Поправки», «Свобода») и другие.
YouTube показал ИИ-сервисы для генерации музыки — один имитирует стиль реальных музыкантов, другому можно напеть партию Статьи редакции

Нейросети разрабатывает Google DeepMind, а тестируют сервисы в рамках проекта Music AI Incubator — в нём состоят авторы-исполнители и продюсеры.

Интерфейс
0
376 комментариев
Написать комментарий...
Роман Величкин

Embrace the Future!
ИИ возможно обучать лишь на человеческом контенте, поэтому человеческий труд не пропадет целиком.

Ответить
Развернуть ветку
Alexey Ivanov
ИИ возможно обучать лишь на человеческом контенте

Откуда информация? ИИ пока вообще не существует, а нейросети глубоко насрать, что ей подаете "на вход": моцарта, моргенштерна или генеренку по обоим

Ответить
Развернуть ветку
Роман Величкин
Ответить
Развернуть ветку
Alexey Ivanov

Простите, а как вы из этих материалов вывели тезис:

ИИ возможно обучать лишь на человеческом контенте
Ответить
Развернуть ветку
Роман Величкин

В заключении каждой статьи сказано, что обучение генеративных моделей на сгенерированных изображениях приводит к снижению качества сгенерированных изображений этих моделей.

Ответить
Развернуть ветку
Alexey Ivanov
обучение генеративных моделей на сгенерированных изображениях приводит к снижению качества сгенерированных изображений этих моделей

Обучение текущих моделей - да, приводит. Будет запрос - появятся модели, не теряющие качества. Но в любом случае, снижение качества != невозможность обучения.

Ответить
Развернуть ветку
Роман Величкин
Будет запрос - появятся модели, не теряющие качества.

Есть спрос на лекарство от всех болезней, но что-то никак не сделают.
Модели - это результат исследований, по мановению палочки или чьего-то желания они не появляются.

снижение качества != невозможность обучения

Генеративные модели обучать очень долго и дорого - на первую версию Midjorney потратили то ли $200к, то ли $300к. Последний поди куда как дороже выходят. Поэтому никто не будет жертвовать качеством. К тому же каждая следующая модель, обученная на результатах предыдущей, будет давать хуже результат.

Ответить
Развернуть ветку
Alexey Ivanov
Генеративные модели обучать очень долго и дорого - на первую версию Midjorney потратили то ли $200к, то ли $300к

У вас странные представления о "дорого" применительно к бизнесу :)

Есть спрос на лекарство от всех болезней, но что-то никак не сделают

Ну потому что это спрос уровня "дайте кнопку зашибись". При этом лекарства от отдельных болезней вполне себе появляются.

Ответить
Развернуть ветку
Роман Величкин

Хорошо, вы со мной несогласны, и считаете, что генеративные модели можно или можно будет в ближайшем будущем обучать на данных сгенерированными другими моделями.

А я считаю иначе. В защиту своей точки зрения я могу сказать, что пока никто не решил эту проблему и, как мне кажется, в самом ближайшем будущем не решит, потому что механизм работы нейросетей ещё недостаточно прозрачен.

Ответить
Развернуть ветку
Alexey Ivanov
механизм работы нейросетей ещё недостаточно прозрачен

Какая часть механизма? Алгоритм работы нейросетей кристально прозрачен. Работа каждого шага нейросетей не прозрачна by default и никогда прозрачна не будет, потому что число шагов (а на каждый "нейрон" их несколько) растет даже не линейно :)

Ответить
Развернуть ветку
Роман Величкин

Здесь можно подробнее почитать:
https://www.technologyreview.com/2024/03/04/1089403/large-language-models-amazing-but-nobody-knows-why/

Если вкратце, то с большой вероятностью мы не знаем как оценивать сложность модели и как оценивать генерализацию модели. Большинство вещей обнаруживаемых в поведении нейросетей, обнаруживаются эмпирически, потому что их не невозможно спрогнозировать.

Ответить
Развернуть ветку
Alexey Ivanov
Если вкратце, то с большой вероятностью мы не знаем как оценивать сложность модели и как оценивать генерализацию модели

Вы уверены, что правильно понимаете приведенный текст? Или это просто автопереводчик так отработал?

Суммарная алгоритмическая сложность моделей оценивается по совершенно стандартным методикам и она установлена для каждой модели еще на этапе ее проектирования.

Что такое "оценка генерализации модели" я вообще не понимаю. Можете оригинальный фрагмент на английском привести?

Большинство вещей обнаруживаемых в поведении нейросетей, обнаруживаются эмпирически, потому что их не невозможно спрогнозировать

Это и есть та непрозрачность by default, о которой я говорил. Если упростить прям вот до предела, то нейросети - это алгоритм, включающий в себя "условно не детерминированный" участок

Ответить
Развернуть ветку
Роман Величкин
Вы уверены, что правильно понимаете приведенный текст? Или это просто автопереводчик так отработал?

Мне кажется, что я правильно понимаю статью. По большей части я прочёл её в оригинале.

According to classical statistics, the bigger a model gets, the more prone it is to overfitting.
And yet that’s not what we see with big models.
...
This behavior (double-descent), dubbed benign overfitting, is still not fully understood. It raises basic questions about how models should be trained to get the most out of them.
Alicia Curth, who studies statistics at the University of Cambridge, and her colleagues argued that double descent is in fact an illusion.
Her team argued that the double-descent phenomenon ... — arises because of the way the complexity of the models was measured.

Complexity of the models - сложность моделей.

Belkin and his colleagues used model size—the number of parameters—as a measure of complexity. But Curth and her colleagues found that the number of parameters might not be a good stand-in for complexity because adding parameters sometimes makes a model more complex and sometimes makes it less so. It depends what the values are, how they get used during training, and how they interact with others—much of which stays hidden inside the model. “Our takeaway was that not all model parameters are created equal,” says Curth.
Что такое "оценка генерализации модели" я вообще не понимаю. Можете оригинальный фрагмент на английском привести?

Окей, "обобщение" - не мог вспомнить как это на русском будет.
Собственно про обобщение из статьи:

In 2016, Chiyuan Zhang at MIT and colleagues at Google Brain published an influential paper titled “Understanding Deep Learning Requires Rethinking Generalization.” In 2021, five years later, they republished the paper, calling it “Understanding Deep Learning (Still) Requires Rethinking Generalization.” What about in 2024? “Kind of yes and no,” says Zhang. “There has been a lot of progress lately, though probably many more questions arise than get resolved.”
Ответить
Развернуть ветку
Роман Величкин

Окей, под ИИ я подразумевал существующие генеративные модели.

Ответить
Развернуть ветку
373 комментария
Раскрывать всегда