Оправданы ли опасения, связанные с развитием нейросетей вроде Chat GPT или Midjourney?

Оправданы ли опасения, связанные с развитием нейросетей вроде Chat GPT или Midjourney?

С развитием технологий и компьютерных наук, нейросети стали одним из наиболее активно исследуемых направлений в информационных технологиях. Но вместе с возможностями, которые они предоставляют, возникают и опасения. Ведь нейросети могут иметь негативное влияние на различные сферы жизни, начиная от приватности и заканчивая экономикой и социальными проблемами. В этой статье мы рассмотрим основные опасения, связанные с развитием нейросетей, и попытаемся понять, насколько они обоснованы.

Илон Маск боится нейросетей

В декабре 2022 года имели место массовые протесты художников с платформы ArtStation,против арта, сформированного нейросетями. Теперь уже более тысячи экспертов в области искусственного интеллекта, включая Илона Маска, выступили с открытым письмом, в котором требуют запретить обучение мощных нейронных сетей. Письмо было опубликовано на сайте Future of Life Institute, некоммерческой организации, и заявляет о возможной угрозе для человечества, если прогресс в этой области будет неконтролируемым. GPT-4 была названа пределом развития на данный момент. Эксперты призывают к объявлению перерыва в обучении систем ИИ на полгода и созданию специальных органов для наблюдения за исполнением этого перерыва. Если этого не произойдет, государство должно ввести мораторий. Эксперты также призывают использовать перерыв для разработки и внедрения общих протоколов безопасности, создания регулирующих органов на государственном уровне и контроля развития передовых систем ИИ с помощью независимых внешних экспертов.

Стив Возняк, Стивен Расселл, Иошуа Бенджио и более тысячи других крупных специалистов также присоединились к этой инициативе. Нейросеть GPT-4 уже превзошла свою предыдущую версию на 40 процентов и может обрабатывать сложные запросы, выдавая точные ответы, включая защиту клиента в качестве адвоката.

И ты, брут!

Удивительно, но ряды противников ИИ пополняются их бывшими сторонниками. Элиезер Юдковский, известный эксперт в области создания "дружелюбного" искусственного интеллекта, высказал свои опасения относительно возможных угроз, которые могут принести ИИ человечеству. В интервью журналу Time он заявил, что неуправляемый рост искусственного интеллекта может превратить его в главного врага человека.

Юдковский предлагает ряд радикальных мер для предотвращения возможных угроз, связанных с развитием искусственного интеллекта. Он призывает к выключению всех больших кластеров графических процессоров, установке потолка для вычислительной мощности, необходимой для обучения систем ИИ, и заключению международных соглашений, чтобы предотвратить перемещение запрещенных видов деятельности в другие регионы.

Такие меры должны распространяться на все правительства и военные организации. Кроме того, необходимо отслеживать все проданные графические процессоры и готовиться к уничтожению мошеннических центров обработки данных с помощью авиаударов, если страны-нарушители будут создавать кластеры GPU.

Главные опасения и возражения к ним

Опасения, связанные с развитие соцсетей можно разделить на 7 категорий. Но на каждое из этих опасений можно подобрать возражение:

1. Угроза безработицы: с развитием нейросетей и ИИ, многие профессии могут быть заменены машинами, что может привести к массовой безработице.

Нейросети и ИИ могут создавать новые профессии, которых раньше не было, например, разработка и обслуживание этих систем, а также создание новых продуктов и услуг на их основе. Кроме того, многие задачи, которые раньше были выполнены вручную, могут быть автоматизированы, что позволит людям сосредоточиться на более высокооплачиваемых работах. Плюс физический труд вырастет в цене, потому что робот грузчик или робот-курьер всяко дороже робота бухгалтера

2. Нарушение приватности: сбор и использование данных о пользователях может привести к нарушению их личной жизни и конфиденциальности.

Нейросети и ИИ могут использоваться и для защиты приватности, например, для обнаружения и предотвращения кибератак. Кроме того, существуют законы и нормы, регулирующие сбор и использование персональных данных, которые могут предотвратить их злоупотребление. Клин клином вышибают ,как говорится.

3. Безопасность систем: нейросети и ИИ могут стать целью взлома и кибератак, что может привести к серьезным последствиям, включая утечку конфиденциальной информации.

Нейросети и ИИ могут использоваться для повышения безопасности систем, например, для обнаружения и предотвращения кибератак, а также для анализа больших объемов данных и выявления уязвимостей.

4. Социальные последствия: нейросети и ИИ могут оказать негативное влияние на общество и привести к социальным проблемам, таким как расизм и дискриминация.

Во-первых нейросети и ИИ могут использоваться и для борьбы с расизмом и дискриминацией, например, для автоматического выявления и исправления системных ошибок и предвзятости. Во-вторых, не все могут разедлять эти ценности в принципе: многие считают что западные страны зашли слишком далеко с "прогрессивной" цензурой и проблема в перву очередь как раз в недостатке объективности и свободы слова, а не распространении hate speech.

5. Ответственность: вопросы ответственности за действия нейросетей и ИИ остаются неясными и могут привести к правовым спорам.

Законы и нормы, регулирующие использование нейросетей и ИИ, могут быть разработаны и приняты, чтобы определить ответственность за их действия.

6. Этические проблемы: нейросети и ИИ могут столкнуться с этическими проблемами, например, когда машины должны принимать решения, которые могут повлиять на жизнь людей.

Нейросети и ИИ могут быть обучены этическим принципам, например, для соблюдения прав человека, защиты конфиденциальности и борьбы с предвзятостью.

7. Зависимость от технологии: с развитием нейросетей и ИИ, люди могут стать слишком зависимы от технологии и потерять способность принимать решения и решать проблемы самостоятельно.

Пожалуй, один из самых сильных аргументов, но эта проблема не является принципально новой - так как человек стал слишком много полагаться на технологию и до развития нейросетей.

Подводя итог

В заключении можно сказать, что развитие нейросетей – это непрерывный процесс, который неизбежно приводит к появлению новых технологий и возможностей. Однако, необходимо помнить о возможных опасностях, связанных с использованием нейросетей. В частности, это может быть угроза для человеческой приватности, а также для тех, кто работает в сферах, которые могут быть заменены машинами.

Чтобы избежать негативных последствий, необходимо развивать нейросети в соответствии с этическими принципами и законодательством. Кроме того, необходимо обучать людей, чтобы они могли использовать эти технологии безопасно и эффективно.

В целом, нейросети – это мощный инструмент, который может помочь нам решать сложные задачи и улучшать нашу жизнь. Однако, мы должны помнить, что это инструмент, который нужно использовать с осторожностью и ответственностью. Только тогда мы сможем извлечь максимальную пользу из нейросетей, минимизируя при этом возможные риски.

Хотите узнать больше о нейросетях? Заходите на наш телеграм канал!

44
1 комментарий

я думаю, умные люди станут ещё умней, а дураки останутся без работы

1
Ответить