{"id":14277,"url":"\/distributions\/14277\/click?bit=1&hash=17ce698c744183890278e5e72fb5473eaa8dd0a28fac1d357bd91d8537b18c22","title":"\u041e\u0446\u0438\u0444\u0440\u043e\u0432\u0430\u0442\u044c \u043b\u0438\u0442\u0440\u044b \u0431\u0435\u043d\u0437\u0438\u043d\u0430 \u0438\u043b\u0438 \u0437\u043e\u043b\u043e\u0442\u044b\u0435 \u0443\u043a\u0440\u0430\u0448\u0435\u043d\u0438\u044f","buttonText":"\u041a\u0430\u043a?","imageUuid":"771ad34a-9f50-5b0b-bc84-204d36a20025"}

Искусственный интеллект — угроза человечеству?

Искусственный интеллект, который когда-то считался выдумкой фантастов, сегодня вполне реален. Эта тема уже давно не сходит со страниц научно-популярных журналов, постоянно затрагивается в кино и книгах. Большинство публикаций содержит хвалебные оды искусственному интеллекту. Регулярно нам сообщают о все новых достижениях компьютерных программ, которые научились ставить медицинские диагнозы, писать картины, как Рафаэль, сочинять стихи или петь.

Постоянно сталкиваясь с огромным количеством дифирамбов в адрес ИИ, я задумалась, не таит ли его столь бурное развитие опасности для нас? Оказывается, подобное предположение вызывает большой интерес и у многих великих умов человечества, например, Стивена Хокинга и Илона Маска. Эти лидеры в индустрии высоких технологий уверены, что за ним нужен постоянный контроль.

Илону Маску на встрече в Массачусетском технологическом университете задали вопрос, что он думает об искусственном интеллекте. Он ответил, что, по его мнению, ИИ можно сравнить с «вызовом демона, которого нельзя призывать, если не можете его контролировать». В будущем люди могут настолько отстать от машин, что в конечном итоге они будут смотреть на людей так же, как люди в настоящее время смотрят на домашних животных. «Мне не по душе идея стать домашней кошкой».

Стивен Хокинг в своих многочисленных выступлениях говорил, что развитый ИИ будет способен переделывать, усовершенствовать себя. Причем скорость его эволюции будет не сопоставима со скоростью эволюции людей. Человечество рискует оказаться на более низкой ступени развития. На Земле появится новая форма жизни, превосходящая человека.

На сайте PСtunе.ru выделены четыре класса риска, вызываемого искусственным интеллектом:

Программная враждебность

ИИ может стать опасным, если будет сознательно запрограммирован на враждебность. Например, военными или террористами для достижения преступных целей.

Также враждебность искусственного интеллекта может проявиться при несовпадении глобальных целей самого ИИ и человечества. Что будет, если искусственный интеллект решит, что единственный способ достичь цели — это уничтожить всех людей?

Пассивный риск

Например, ИИ, у которого нет целей дружелюбия, отвечает за обработку полей пестицидами. Он будет обрабатывать посевы, даже тогда, когда на поле находятся люди.

Случайный риск

ИИ, который работает с неполными данными, может ошибиться точно тaк же, как и человек. Ошибок такого рода избежать невозможно, как невозможно и знать все на свете.

Однако, поскольку ИИ способен учиться на собственном опыте, данный риск является наименее опасным. Возможность повторения ошибки будет постоянно снижаться, совершенствуя ИИ.

Риск непостижимости

Большая опасность ИИ состоит в спoсобности бесконечного самосовершенствования. В конечном итоге такой искусственный интеллект может превзойти возможности интеллекта человеческого.

При возникновении ИИ, который будет умнее любого человека на Земле, людям станет невозможно полностью понять его. Он будет продолжать улучшать себя с огромной скоростью. Возможности ИИ станут поистине бесконечными. Существует много теорий об опасности искусственного интеллекта, но мы должны осознавать, что это только гипотезы, а не факты. Человечество всегда сомневалось в новых технологиях. Было время, когда люди опасались даже мобильных телефонов. Остановить технический процесс невозможно, да и не нужно. Но при этом нельзя и недооценивать риски, связанные с развитием искусственного интеллекта. В любом случае успех использования ИИ зависит от того, каким мы его создадим и как будем контролировать. Вы согласны?

0
1 комментарий
Георгий Беглорян

люди вымрут от вирусов лол 

Ответить
Развернуть ветку
-2 комментариев
Раскрывать всегда