Эксперты заявили о риске исчезновения человечества из-за искусственного интеллекта

Эксперты заявили о риске исчезновения человечества из-за искусственного интеллекта

Организация «Центр безопасности искусственного интеллекта» опубликовала заявление, предупреждающее об опасностях, связанных с использованием искусственного интеллекта (ИИ) , и указывающее на потенциальную угрозу для существования человеческой расы.

Ученые, предприниматели и программисты, включая Джеффри Хинтона, известного своей связью с ИИ, и главу OpenAI Сэма Альтмана, выразили свою поддержку этому заявлению.

Согласно информации на сайте центра, присутствуют риски искусственного интеллекта. Несмотря на многочисленные преимущества, ИИ может быть использован для автономных действий, оружия, дезинформации и кибератак. Хотя системы ИИ работают в сотрудничестве с человеком, они все более автономны, что нарастающим образом увеличивает риски для общества. Если ИИ продолжит развиваться, это может стать угрозой для существования человеческой цивилизации.

Стратегии предотвращения исчезновения человечества, вызванного проблемами искусственного интеллекта (ИИ), должны стать глобальным приоритетом, наравне с другими угрозами, такими как пандемии и ядерная война, по мнению центра, расположенного в Сан-Франциско. В заявлении, которое подписали журналисты, ученые, предприниматели и программисты, включая Сэма Альтмана, главу компании OpenAI, и Джеффри Хинтона, британского ученого, который называется «крестным отцом ИИ», обращается внимание на необходимость принятия мер по предотвращению рисков, связанных с проблемами ИИ.

На сайте центра так же подробно рассказывается о рисках, которые, по его мнению, связаны с искусственным интеллектом.

Обращение, предупреждающее об опасности искусственного интеллекта не является единственным. В марте, группа экспертов и руководителей индустрии, среди которых Илон Маск, Стив Возняк и более 1000 других людей, подписали открытое письмо с требованием остановить создание продвинутого ИИ, пока не будут введены и проверены независимыми экспертами общие протоколы безопасности. Институт будущего жизни разработал заявление, призывающее к тому, что надо разрабатывать мощные системы искусственного интеллекта только при уверенности, что их эффекты будут только положительными, а риски будут управляемыми.

Уменьшение риска исчезновения (человечества) из-за искусственного интеллекта должно стать глобальным приоритетом наряду с другими рисками, грозящими всему обществу, такими как пандемии и ядерная война

говорится в заявлении находящегося в Сан-Франциско центра

В мае Стив Возняк, один из пионеров компьютерных технологий и сооснователь Apple, выразил опасения касательно использования искусственного интеллекта злоумышленниками, которые могут использовать его для создания мошеннических схем, почти неотличимых от реальных. Возняк подчеркнул необходимость ясной маркировки контента, созданного с помощью ИИ.

PS. лайк, пожалуйста, он помогает продвижению статьи.

Сгенерировано в <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fkolersky.com%2Fmj&postId=711686" rel="nofollow noreferrer noopener" target="_blank">Midjourney в сервисе </a>KolerskyAI
Сгенерировано в Midjourney в сервисе KolerskyAI

Ну и как положено на VC, канал телеграм))) Канал и чатик

Туда выкладываю статьи VC и то, что нет в VC. Мысли, идеи, опыт.

В закрепленных канале всегда телеграм боты Kolersky для доступа в ChatGPT, GPT-4 без VPN, а так же генераторы изображений Midjourney, Dall-e, Stable Diffusion+ (все проекты: KolerskyAI).

2121
35 комментариев

Хотелось бы понять, что это за эксперты, когда они организовали этот Центр, и чем ещё они знамениты. Пока выглядит, как хайп, и попытка оправдать существование своей организации: мол мы же «центр безопасности ИИ» - заявляем об опасности ИИ!

7

Это же британские учёные!))

2

Похоже, какая-то выдуманная контора

Как обычно - пугать проще и эффектней. Поэтому каждый «эксперт» в погоне за просмотрами раз за разом пугает приходом ИИ.

Добиваются чтобы ИИ могли свободно использовать только "правильные" люди. Остальным положен только зацензурированный огрызок.

3

Да человеку никто и не нужен, он сам себя погубит. Не нужно искать теории заговора и пытаться списать все на них

3

искуственный интелект никогда не превзойдет натуральную глупость

2