{"id":14285,"url":"\/distributions\/14285\/click?bit=1&hash=346f3dd5dee2d88930b559bfe049bf63f032c3f6597a81b363a99361cc92d37d","title":"\u0421\u0442\u0438\u043f\u0435\u043d\u0434\u0438\u044f, \u043a\u043e\u0442\u043e\u0440\u0443\u044e \u043c\u043e\u0436\u043d\u043e \u043f\u043e\u0442\u0440\u0430\u0442\u0438\u0442\u044c \u043d\u0430 \u043e\u0431\u0443\u0447\u0435\u043d\u0438\u0435 \u0438\u043b\u0438 \u043f\u0443\u0442\u0435\u0448\u0435\u0441\u0442\u0432\u0438\u044f","buttonText":"","imageUuid":""}

Восстание машин: опасны ли нейросети?

«Темная сторона»: какие угрозы могут нести в себе нейросети? Размышляем с футурологом Борисом Агатовым

Казалось бы, еще недавно мы смотрели фильмы о подобных технологиях и мечтали о том, как сами однажды с ними познакомимся — и вот они уже тут. Мы болтаем с Алисой, просим ChatGPT написать за нас письмо коллеге или даже научную работу, генерируем картинки с Гарри Поттером в Midjourney, чтобы развлечь себя вечером. В общем, совершенно обыденно используем те технологии, которые когда-то казались нам совершенно непостижимыми.

Будущее настало так стремительно, что мы даже не успели это заметить и как-то осознать. Нейросети уже не просто существуют, но и довольно успешно имитируют процесс сознания человека. Они разговаривают, пишут тексты, шутят, занимаются творчеством — а мы даже до конца не понимаем, что они такое.

Эксперты из Sendsay, платформы автоматизации маркетинга, в сегодняшней статье подняли старую тему страха перед восстанием машин и серьезно поговорили о том, какие реальные угрозы могут в себе нести современные технологии. И, чтобы не звучать голословно, мы позвали порассуждать вместе с нами футуролога, независимого эксперта по инновациям в ритейле Бориса Агатова.

Если вы хотя бы раз задумывались о том, что нейросети, возможно, не так безобидны, как о них говорят — этот материал будет вам интересен. Обещаем: нагнетать не будем и восклицать, что мы все умрем от рук машин — тоже.

Думаем о будущем: какую потенциальную угрозу несут в себе нейросети?

О том, как должен или не должен вести себя плод искусственного интеллекта, мы знаем разве что из научной фантастики. Долгое время мы опирались на три закона робототехники, сформулированные Айзеком Азимовым:

  • Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
  • Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  • Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Но в момент, когда мы столкнулись с реальными моделями искусственного интеллекта, у ученых появились сомнения в том, что законы, сформулированные фантастом, действительно ограждают нас от угроз, которые потенциально несет в себе эта технология.

Проблема искусственного интеллекта заключается в том, что он действительно может вести себя аморально — если это требуется для решения задачи или имитации такого решения.

Например, недавно тот же ChatGPT «догадался» притвориться слабовидящим, чтобы за него решили капчу. И это не единственный пример, когда модель ведет себя странно: например, нейросеть также не раз была уличена в том, что неправильно решает даже простые математические задачи — убеждая пользователя в том, что это и есть правильное решение.

Так что нейросети действительно неоднозначный инструмент, который несет в себе скрытые угрозы. И для мультимодальных нейронных сетей и больших языковых моделей их даже можно типологизировать.

Первая угроза — чувствительные персональные данные

Сегодня все большие языковые модели (БЯМ) — ChatGPT, GigaChat, Ernie, Bard и другие — отлично умеют вести диалог. При этом люди доверяют им достаточно чувствительные вопросы, связанные с их психикой, личными отношениями и так далее. Непонятно, как сами БЯМ и люди, которые их контролируют, распорядятся этой информацией. Может возникнуть желание манипулировать этими данными — и, как следствие, и самими пользователями. Огромным количеством пользователей. В этом и кроется главная опасность, поэтому нужно быть максимально осторожными, когда вы делитесь с такими нейросетями какой-то чувствительной информацией.

Борис Агатов

Вторая угроза — потеря контроля над нейросетями

Главное свойство нейронной сети — самообучаемость. Но при этом мы не знаем, что происходит у нее «в голове». Последние исследования показывают, что у больших языковых моделей есть «искры разума».

Это говорит о том, что нет никакой уверенности в том, что удастся удержать БЯМ на тех серверах, на которых их создали и обучили. Вполне можно представить, что в какой-то момент кто-то поставит задачу размножиться на других компьютерах. А какую они себе при этом поставят цель — мы можем только догадываться.

Борис Агатов

Третья угроза — использование нейросетей злоумышленниками

Был эксперимент с нейронной сетью, которая была обучена созданию и моделированию новых химических веществ. В его результате нейросеть легко создала 40 новых формул активных токсинов, которые превосходят по силе отравляющего эффекта многие боевые отравляющие вещества.

Этот эксперимент указал на возможную проблему: нейронные сети в руках злоумышленников могу стать настоящим оружием. С их помощью можно создавать новые формулы психотропных и наркотических веществ — таких, которые формально не будут считаться наркотиками. А значит, их оборот и распространение не будут контролироваться и пресекаться.

Если обобщить: высокопроизводительные нейросети могут мультиплицировать любые виды угроз в невероятных масштабах — начиная от использования дипфейков для получения доступа к банковским аккаунтам, заканчивая созданием химического оружия. И у нас пока нет решения, как регулировать эту потенциальную проблему.

Борис Агатов

Каким сферам может навредить ИИ?

Если мы говорим про угрозы, мы говорим и про вред, который могут нести в себе технологии искусственного интеллекта.

Первая и, пожалуй, самая растиражированная проблема — это, конечно, прямой вред человеку. При этом речь не про жизнь или здоровье людей, а про их рабочие места. Это один из самых главных страхов, который постоянно циркулирует в медиапространстве. Люди действительно боятся, что новые технологии призваны не улучшать качество их жизни и упрощать рутину — а забирать у них средства к существованию.

И нельзя сказать, что эти страхи неоправданны. Они вполне естественны: люди всегда сопротивлялись изменениям. Им не нравился плуг, не нравилось электричество, не нравились автомобили. Все это тоже в какой-то степени угрожало их привычному существованию. И большие технологические прорывы и правда чаще всего приводят к тому, что какие-то профессии просто исчезают из-за ненадобности. Поэтому, например, у нас больше нет кучеров или машинисток.

Как мы видим, отсутствие некоторых профессий уже не кажется нам, современным людям, чем-то страшным или несправедливым. Да, такие специалисты больше не нужны — но нужны другие. Поэтому, сфера найма хоть и меняется под влиянием ИИ, но не находится под ударом.

Есть куда более серьезные проблемы, о которых говорят меньше, — но которым стоит уделить более пристальное внимание.

Кибербезопасность — область, которая наиболее подвержена риску, исходящему от нейросетей. Сегодня любой человек без специальных знаний в диалоге с ChatGPT может создать вредоносный код или маркетплейс для даркнета.

Сюда же относится и кибермошенничество. Нейросети научились вести очень убедительный диалог с высокой скоростью реагирования — практически неотличимый от реального человека. И это ставит под угрозу социально уязвимые слои населения — пенсионеров, детей и просто доверчивых граждан. А кроме того, открывает возможности для масштабирования мошенничества: если один преступник может вести одновременно диалог только с одним человеком, то для нейросетей подобных ограничений просто не существует.

На самом деле, если смотреть шире, под угрозой не только пенсионеры и дети — но и вообще каждый. Так как в целом все мы привыкли доверять искусственному интеллекту — и в этом ключе мы тоже находимся в зоне риска.

Борис Агатов

Как оградить себя от возможных рисков?

Находится в зоне риска, конечно же, некомфортно. Хочется иметь инструкцию, которая поможет обезопасить себя от любых угроз.

Но в случае с искусственным интеллектом сделать это сложно. Преимущественно из-за того, что эта технология постоянно развивается. Даже в случае с обычными мошенниками бывает сложно распознать обман — а искусственный интеллект постоянно самосовершенствуется.

И в этом, конечно, и самое сильное, и самое слабое место этой технологии.

К сожалению, универсального совета, как оградить себя от рисков, не существует.

Дело в том, что технология общедоступного ИИ появилась совсем недавно — даже года не прошло. И в некотором плане мы проходим те же этапы, что проходили люди на заре появления электричества и автомобилей. Возможно, наши опасения преувеличены. Но есть вероятность, что, наоборот, — слишком преуменьшены, и эта технология действительно угрожает самому существованию человечества, как атомное оружие.

Поэтому сегодня важно внимательно следить за развитием технологий, поддерживать на должном уровне традиционные контуры безопасности — как личные, так и корпоративные. Нужно понимать, что рядом с нами теперь есть и развивается параллельный мир, в котором уже сейчас есть «искры разума» и для которого уже создана хорошая инфраструктура. И, конечно, следует «иметь голову на плечах» — критически мыслить и помогать уязвимым слоям общества избежать опасности.

Борис Агатов

Нейросети, которым можно доверять

Несмотря на то, что мы проговорили немало негативных факторов, которые связаны с нейросетями — мы ни в коем случае не рекомендуем вам оградиться от них и больше никогда не прикасаться ни к умным колонкам, ни к чату GPT.

Мы уже живем в будущем, о котором когда-то мечтали — и время назад не повернется. Эти технологии существуют и продолжат развиваться, хотим мы того или нет. Поэтому лучше не избегать их, а «подружиться» с ними.

Все нейросети можно и нужно использовать — от ChatGPT и Midjourney до GigaChat и Kandisky 2.0.

Здесь ситуация как с интернетом: да, в нем таится много опасностей, но если его не использовать, ты не только не столкнешься с проблемами безопасности, но и не узнаешь всех выгод.

Я бы рекомендовал тестировать все, что выходит — чем лучше вы понимаете новую технологию, тем четче понимаете, как извлечь выгоду, избежав проблем.

Борис Агатов
0
1 комментарий
Inna Dengafinans

Благодарю это очень интересно. Но не всегда получается ожидать нужного результата от картинки. То что ты описываешь и желаешь увидеть. Не всегда и всё проходит. А это очень тяжело. Например пишу. Жених и невеста под шляпой лепрекона. И мне выдаёт картинку что каждый в своей шляпе. А я желаю увидеть двоих под одной общей шляпой. А может я что то пишу неправильно?

Ответить
Развернуть ветку
-2 комментариев
Раскрывать всегда