Восстание машин: опасны ли нейросети?
«Темная сторона»: какие угрозы могут нести в себе нейросети? Размышляем с футурологом Борисом Агатовым
Казалось бы, еще недавно мы смотрели фильмы о подобных технологиях и мечтали о том, как сами однажды с ними познакомимся — и вот они уже тут. Мы болтаем с Алисой, просим ChatGPT написать за нас письмо коллеге или даже научную работу, генерируем картинки с Гарри Поттером в Midjourney, чтобы развлечь себя вечером. В общем, совершенно обыденно используем те технологии, которые когда-то казались нам совершенно непостижимыми.
Будущее настало так стремительно, что мы даже не успели это заметить и как-то осознать. Нейросети уже не просто существуют, но и довольно успешно имитируют процесс сознания человека. Они разговаривают, пишут тексты, шутят, занимаются творчеством — а мы даже до конца не понимаем, что они такое.
Эксперты из Sendsay, платформы автоматизации маркетинга, в сегодняшней статье подняли старую тему страха перед восстанием машин и серьезно поговорили о том, какие реальные угрозы могут в себе нести современные технологии. И, чтобы не звучать голословно, мы позвали порассуждать вместе с нами футуролога, независимого эксперта по инновациям в ритейле Бориса Агатова.
Если вы хотя бы раз задумывались о том, что нейросети, возможно, не так безобидны, как о них говорят — этот материал будет вам интересен. Обещаем: нагнетать не будем и восклицать, что мы все умрем от рук машин — тоже.
Думаем о будущем: какую потенциальную угрозу несут в себе нейросети?
О том, как должен или не должен вести себя плод искусственного интеллекта, мы знаем разве что из научной фантастики. Долгое время мы опирались на три закона робототехники, сформулированные Айзеком Азимовым:
- Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
- Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
- Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Но в момент, когда мы столкнулись с реальными моделями искусственного интеллекта, у ученых появились сомнения в том, что законы, сформулированные фантастом, действительно ограждают нас от угроз, которые потенциально несет в себе эта технология.
Например, недавно тот же ChatGPT «догадался» притвориться слабовидящим, чтобы за него решили капчу. И это не единственный пример, когда модель ведет себя странно: например, нейросеть также не раз была уличена в том, что неправильно решает даже простые математические задачи — убеждая пользователя в том, что это и есть правильное решение.
Так что нейросети действительно неоднозначный инструмент, который несет в себе скрытые угрозы. И для мультимодальных нейронных сетей и больших языковых моделей их даже можно типологизировать.
Первая угроза — чувствительные персональные данные
Третья угроза — использование нейросетей злоумышленниками
Каким сферам может навредить ИИ?
Если мы говорим про угрозы, мы говорим и про вред, который могут нести в себе технологии искусственного интеллекта.
Первая и, пожалуй, самая растиражированная проблема — это, конечно, прямой вред человеку. При этом речь не про жизнь или здоровье людей, а про их рабочие места. Это один из самых главных страхов, который постоянно циркулирует в медиапространстве. Люди действительно боятся, что новые технологии призваны не улучшать качество их жизни и упрощать рутину — а забирать у них средства к существованию.
И нельзя сказать, что эти страхи неоправданны. Они вполне естественны: люди всегда сопротивлялись изменениям. Им не нравился плуг, не нравилось электричество, не нравились автомобили. Все это тоже в какой-то степени угрожало их привычному существованию. И большие технологические прорывы и правда чаще всего приводят к тому, что какие-то профессии просто исчезают из-за ненадобности. Поэтому, например, у нас больше нет кучеров или машинисток.
Есть куда более серьезные проблемы, о которых говорят меньше, — но которым стоит уделить более пристальное внимание.
Как оградить себя от возможных рисков?
Находится в зоне риска, конечно же, некомфортно. Хочется иметь инструкцию, которая поможет обезопасить себя от любых угроз.
Но в случае с искусственным интеллектом сделать это сложно. Преимущественно из-за того, что эта технология постоянно развивается. Даже в случае с обычными мошенниками бывает сложно распознать обман — а искусственный интеллект постоянно самосовершенствуется.
И в этом, конечно, и самое сильное, и самое слабое место этой технологии.
Нейросети, которым можно доверять
Несмотря на то, что мы проговорили немало негативных факторов, которые связаны с нейросетями — мы ни в коем случае не рекомендуем вам оградиться от них и больше никогда не прикасаться ни к умным колонкам, ни к чату GPT.
Мы уже живем в будущем, о котором когда-то мечтали — и время назад не повернется. Эти технологии существуют и продолжат развиваться, хотим мы того или нет. Поэтому лучше не избегать их, а «подружиться» с ними.
Благодарю это очень интересно. Но не всегда получается ожидать нужного результата от картинки. То что ты описываешь и желаешь увидеть. Не всегда и всё проходит. А это очень тяжело. Например пишу. Жених и невеста под шляпой лепрекона. И мне выдаёт картинку что каждый в своей шляпе. А я желаю увидеть двоих под одной общей шляпой. А может я что то пишу неправильно?