Эдвард Сноуден выступил против ChatGPT и OpenAI после того, как бывший директор АНБ вошел в совет директоров компании

Эдвард Сноуден выступил против ChatGPT и OpenAI после того, как бывший директор АНБ вошел в совет директоров компании

Эдвард Сноуден предостерег от доверия OpenAI и ее продуктам, включая ChatGPT, после того, как бывший директор АНБ Пол Накасоне был назначен в совет директоров компании.

Изображение "Snowden on red square". Создано нейросетью Stable Diffusuon Core (phatagraphic) через <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fkolersky.com%2Fsd&postId=1239609" rel="nofollow noreferrer noopener" target="_blank">сервис KolerskyAi</a>
Изображение "Snowden on red square". Создано нейросетью Stable Diffusuon Core (phatagraphic) через сервис KolerskyAi

Бывший подрядчик АНБ и разоблачитель Эдвард Сноуден предостерегает против OpenAI после назначения в совет директоров компании бывшего директора АНБ Пола Накасоне. Сноуден рассматривает это как "умышленное, расчетливое предательство прав каждого человека на Земле".

"Они полностью сняли маски: никогда не доверяйте OpenAI или ее продуктам (ChatGPT и т.д.). Есть только одна причина для назначения директора NSAGov в ваш совет директоров. Это преднамеренное, расчетливое предательство прав каждого человека на Земле. Вы были предупреждены ", - пишет Сноуден.

Эдвард Сноуден выступил против ChatGPT и OpenAI после того, как бывший директор АНБ вошел в совет директоров компании

Днем позже Сноуден добавил, что сочетание искусственного интеллекта с огромным объемом данных массовой слежки, накопленных за последние два десятилетия, "даст поистине ужасные полномочия в руки горстки неподотчетных людей".

Накасоне, который занимал пост директора АНБ с 2018 по февраль 2024 года, присоединился к недавно сформированному Комитету OpenAI по охране и безопас-ности. Его роль заключается в том, чтобы помочь усилить усилия компании по использованию искусственного интеллекта в целях кибербезопасности. OpenAI также сотрудничает с военными США в проектах кибербезопасности.

Объявление последовало за внутренней критикой культуры безопасности OpenAI, поскольку несколько исследователей безопасности недавно покинули компанию. Однако эти исследователи были обеспокоены соответствием потенциального "супер ИИ", чем повседневными рисками кибербезопасности.

Сноуден нацелен не только на OpenAI. Выступая на конференции Super AI в Сингапуре, Сноуден выразил свои проблемы с общей "паникой по поводу безопасности искусственного интеллекта".

Хотя он признает, что предупреждения о сверхразуме в стиле Терминатора, угрожающем человечеству, продиктованы благими намерениями, он видит большую опасность в том, что люди пытаются включить свои политические взгляды в модели искусственного интеллекта, чтобы обобщить мнения меньшинств.

Сноуден особо выделил Google, которая недавно столкнулась с критикой за искажающие историю правила разнообразия в своем генераторе изображений искусственного интеллекта. Например, генератор изображений Google создавал изображения темнокожих людей в нацистской форме из-за чрезмерно строгих правил разнообразия.

"", - сказал Сноуден.

Это похоже на то, что не вмешивайтесь в работу пользователя, вы не знаете лучше пользователя, не пытайтесь навязать пользователю свою волю, и все же мы видим, что это происходит
Сноуден

Коротко о содержании статьи:

1. Эдвард Сноуден, бывший подрядчик АНБ и разоблачитель, предостерег от доверия OpenAI и ее продуктам, таким как ChatGPT, после того, как бывший директор АНБ Пол Накасоне был назначен в совет директоров компании, назвав это "умышленным, расчетливым предательством прав каждого человека на Земле".

2. Сноуден выразил обеспокоенность тем, что сочетание искусственного интеллекта и огромного количества данных массовой слежки, собранных за последние 20 лет, даст неконтролируемую власть немногим избранным, и раскритиковал более широкую "панику по поводу безопасности искусственного интеллекта" вокруг идеи угрожающего сверхразума.

3. Признавая, что предупреждения о экзистенциальной угрозе ИИ человечеству продиктованы благими намерениями, Сноуден видит большую опасность в попытках включить политические взгляды и обобщить мнения меньшинств в модели ИИ, ссылаясь на недавний спор Google по поводу правил разнообразия в его генеративном ИИ изображений, который привел к исторически неточным изображениям.

ps. Комментируйте, пожалуйста! Это помогает продвижению статьи.

Ну и как положено, канал тг))) Канал и чатик

Там под сообщениями и в закрепленном боты KolerskyAi для генерации видео, а так же для доступа в Chat GPT+4 и Dalle-3 без VPN и другие нейросети.

11
1 комментарий

как только появилась технология типфейков уже было понятно,что ничем хорошим это не закончится

Ответить