{"id":14287,"url":"\/distributions\/14287\/click?bit=1&hash=1d1b6427c21936742162fc18778388fc58ebf8e17517414e1bfb1d3edd9b94c0","hash":"1d1b6427c21936742162fc18778388fc58ebf8e17517414e1bfb1d3edd9b94c0","title":"\u0412\u044b\u0440\u0430\u0441\u0442\u0438 \u0438\u0437 \u0440\u0430\u0437\u0440\u0430\u0431\u043e\u0442\u0447\u0438\u043a\u0430 \u0434\u043e \u0440\u0443\u043a\u043e\u0432\u043e\u0434\u0438\u0442\u0435\u043b\u044f \u0437\u0430 \u0433\u043e\u0434","buttonText":"","imageUuid":""}

OpenAI предлагает лицензии на ИИ

Взгляд Янника Килчера на слушания в Сенате США по регулированию ИИ, с участием Сэма Альтмана и Гари Маркуса.

@YannicKilcher Оригинальное видео на английском

Коротко:
Хотя Сэм Альтман выдвигает разумные аргументы, относительно потенциальных преимуществ искусственного интеллекта, автор не согласен с его предложением лицензировать и регулировать ИИ выше определенного порога возможностей.

Регулирование затруднит конкуренцию стартапов и проектов с открытым исходным кодом с крупными компаниями, такими как OpenAI.

Альтман также избегает требований о большей прозрачности, раскрывая данные, на которых были обучены модели.

Автор утверждает, что истинная прозрачность и открытый доступ к данным обучения лучше обеспечат безопасное внедрение ИИ.

В целом автор считает, что призывы Альтмана к регулированию служат его собственным бизнес-интересам OpenAI, а не вызваны искренней обеспокоенностью о безопасности.

Ключевые моменты:
- Сэм Альтман аргументирует в пользу искусственного интеллекта и его потенциальных преимуществ.

- Сэм Альтман предлагает ввести требования к лицензированию и тестированию передовых моделей искусственного интеллекта для смягчения рисков, предлагая, чтобы малые компании и исследования должны быть освобождены от этого.

- Хотя аргументы в пользу лицензирования и регулирования кажутся обоснованными, выступающий в конечном итоге получает выгоду от усложнения конкуренции для стартапов и проектов с открытым исходным кодом по сравнению с OpenAI.

- OpenAI была скрытна относительно данных и деталей обучения своих моделей, что противоречит идее "маркировки продуктов питания" для информирования пользователей.

- Публикация большего количества информации о том, как обучаются и ведут себя модели, может помочь обеспечить их безопасное внедрение.

- Пользователи самостоятельно способны принимать информированные решения с помощью искусственного интеллекта, если им предоставляется достаточно информации о неточностях и ограничениях модели.

- То, что системы искусственного интеллекта могут генерировать ложные утверждения, не означает, что они не надёжны или подрывают демократию. Многие технологии могут быть использованы для генерации ложной информации.

- Аргумент Гари Маркуса о том, что искусственный интеллект подрывает способность определять, что является истиной, неубедителен, поскольку люди давно сталкиваются с выявлением достоверности письменных текстов.

- Искусственный интеллект может сделать генерацию ложной информации масштабной и дешевой, но также убедительно лгать могут и люди.

- Просмотр более длинного видео на Youtube канале "Machine Learning Street Talk" предоставит дополнительный контекст и точки зрения на слушаниях в Сенате.

Комментарии под видео:

Я вспоминаю корпоративных бегемотов прошлого, которые больше всего на свете любили возможность регулировать более мелких конкурентов, выбивая их из бизнеса. OpenAI пытается задушить своего младшего брата в кроватке. Падшее человечество определенно встроено в OpenAI. Все старое снова новое.

Это то же самое, что и договор о запрещении ядерного оружия. Когда у большинства европейских стран было ядерное оружие, для всех остальных стран был введен запрет на разработку ядерного оружия (разумеется, по уважительной причине). Эти предлагаемые лицензии одинаковы, но здесь указаны компании, а не страны.

Момент самой Силиконовой долины. Слишком медлительный, чтобы конкурировать, и слишком жадный, чтобы прогрессировать, но достаточно крупный, чтобы оказывать давление на конкурентов через правительство.

Я имею в виду, что все это явно корпоративная монополия, которая, как они знают, шатается. Они просто изо всех сил пытаются вернуться к этому. Они боятся того, что сделал Linux :P

OpenAI: «Пожалуйста, убейте наших конкурентов, мы боимся открытого исходного кода».

Нет монополии на искусственный интеллект. ИИ с открытым исходным кодом для всех.

Open Assistant - чат-бот с искусственным интеллектом, с открытым исходным кодом, альтернатива ChatGPT.

Главы техкомпаний, инженеры и исследователи попросили приостановить «масштабные ИИ-эксперименты» — они угрожают обществу Статьи редакции

Среди подписавшихся — сооснователи Apple, Skype и Pinterest, гендиректор SpaceX и Tesla, а также сотрудники Microsoft и Google.

Сооснователь Apple Стив Возняк. Источник: Firstpost
0
2 комментария
Анна Жук

Польза ИИ конечно есть, но при этом есть и вред

Ответить
Развернуть ветку
Саша G
Автор

В чем вред?

Ответить
Развернуть ветку
-1 комментариев
Раскрывать всегда