OpenAI предлагает лицензии на ИИ

Взгляд Янника Килчера на слушания в Сенате США по регулированию ИИ, с участием Сэма Альтмана и Гари Маркуса.

@YannicKilcher Оригинальное видео на английском

Коротко:
Хотя Сэм Альтман выдвигает разумные аргументы, относительно потенциальных преимуществ искусственного интеллекта, автор не согласен с его предложением лицензировать и регулировать ИИ выше определенного порога возможностей.

Регулирование затруднит конкуренцию стартапов и проектов с открытым исходным кодом с крупными компаниями, такими как OpenAI.

Альтман также избегает требований о большей прозрачности, раскрывая данные, на которых были обучены модели.

Автор утверждает, что истинная прозрачность и открытый доступ к данным обучения лучше обеспечат безопасное внедрение ИИ.

В целом автор считает, что призывы Альтмана к регулированию служат его собственным бизнес-интересам OpenAI, а не вызваны искренней обеспокоенностью о безопасности.

Ключевые моменты:
- Сэм Альтман аргументирует в пользу искусственного интеллекта и его потенциальных преимуществ.

- Сэм Альтман предлагает ввести требования к лицензированию и тестированию передовых моделей искусственного интеллекта для смягчения рисков, предлагая, чтобы малые компании и исследования должны быть освобождены от этого.

- Хотя аргументы в пользу лицензирования и регулирования кажутся обоснованными, выступающий в конечном итоге получает выгоду от усложнения конкуренции для стартапов и проектов с открытым исходным кодом по сравнению с OpenAI.

- OpenAI была скрытна относительно данных и деталей обучения своих моделей, что противоречит идее "маркировки продуктов питания" для информирования пользователей.

- Публикация большего количества информации о том, как обучаются и ведут себя модели, может помочь обеспечить их безопасное внедрение.

- Пользователи самостоятельно способны принимать информированные решения с помощью искусственного интеллекта, если им предоставляется достаточно информации о неточностях и ограничениях модели.

- То, что системы искусственного интеллекта могут генерировать ложные утверждения, не означает, что они не надёжны или подрывают демократию. Многие технологии могут быть использованы для генерации ложной информации.

- Аргумент Гари Маркуса о том, что искусственный интеллект подрывает способность определять, что является истиной, неубедителен, поскольку люди давно сталкиваются с выявлением достоверности письменных текстов.

- Искусственный интеллект может сделать генерацию ложной информации масштабной и дешевой, но также убедительно лгать могут и люди.

- Просмотр более длинного видео на Youtube канале "Machine Learning Street Talk" предоставит дополнительный контекст и точки зрения на слушаниях в Сенате.

Комментарии под видео:

Я вспоминаю корпоративных бегемотов прошлого, которые больше всего на свете любили возможность регулировать более мелких конкурентов, выбивая их из бизнеса. OpenAI пытается задушить своего младшего брата в кроватке. Падшее человечество определенно встроено в OpenAI. Все старое снова новое.

Это то же самое, что и договор о запрещении ядерного оружия. Когда у большинства европейских стран было ядерное оружие, для всех остальных стран был введен запрет на разработку ядерного оружия (разумеется, по уважительной причине). Эти предлагаемые лицензии одинаковы, но здесь указаны компании, а не страны.

Момент самой Силиконовой долины. Слишком медлительный, чтобы конкурировать, и слишком жадный, чтобы прогрессировать, но достаточно крупный, чтобы оказывать давление на конкурентов через правительство.

Я имею в виду, что все это явно корпоративная монополия, которая, как они знают, шатается. Они просто изо всех сил пытаются вернуться к этому. Они боятся того, что сделал Linux :P

OpenAI: «Пожалуйста, убейте наших конкурентов, мы боимся открытого исходного кода».

Нет монополии на искусственный интеллект. ИИ с открытым исходным кодом для всех.

Open Assistant - чат-бот с искусственным интеллектом, с открытым исходным кодом, альтернатива ChatGPT.

3131
2 комментария

Польза ИИ конечно есть, но при этом есть и вред

Ответить

В чем вред?

Ответить