Этичное использование технологий: как мир пытается приручить ИИ

Ааааа, нейросети лишат всех работы! Или просто поработят? Разбираемся, что делают учёные и техногиганты, чтобы этого не произошло.

Этичное использование технологий: как мир пытается приручить ИИ

Всё больше стран считает искусственный интеллект серьёзной опасностью. Например, в Италии запретили использовать ChatGPT. А в России разрабатывают закон об искусственном интеллекте и предлагают маркировать контент, созданный нейросетями.

Разбираемся, почему мировая общественность ополчилась на ИИ и как лучшие умы мира пытаются управлять нейросетями (пока они не начали управлять всем остальным).

Какие проблемы создаёт ИИ

Сотрудников заменяют искусственным интеллектом. До России проблема пока не дошла, но тенденция уже появилась на Западе.

Например, IBM собирается приостановить наём на некоторые должности — пострадают HR и бэк-офис. CEO компании заявил, что 30% сотрудников этих отделов можно заменить ИИ в ближайшие пять лет. Если компания действительно будет проводить такую политику, 7 800 человек лишатся работы.

При этом уже есть примеры, когда нейросети не смогли заменить сотрудников и откровенно навредили. В феврале 2023 года в журнале Men's Journal опубликовали статью о низком уровне тестостерона у мужчин — её написала нейросеть. Эксперты журнала Futurism нашли в ней 18 фактических ошибок, которые потенциально опасны для читателей.

Другой случай тоже произошёл в США. Девушка по имени Аманда Клейпул попыталась устроиться на работу в пять разных сетей фастфуда — в четырёх из них ей пришлось общаться с ботами-эйчарами. Это не ускорило наём, а, наоборот, усложнило.

Например, чат-бот «Макдональдса» не смог назначить собеседование, а ещё в двух сетях ИИ не предупредил менеджеров о встрече с потенциальным сотрудником. В итоге Аманда устроилась в кафе, где собеседование проводил реальный человек.

С помощью ИИ можно генерировать фейки. Вспомните хотя бы вирусную фотографию Папы Римского в пуховике Balenciaga или кадры «задержания» Дональда Трампа. Нейросети становятся более продвинутыми, поэтому отличить фейковое изображение от реального становится всё сложнее.

ИИ нарушает авторское право. Нейросети учатся на текстах из СМИ и фотобанках изображений. Они не могут создавать оригинальный продукт — только повторять в разных комбинациях то, что им уже известно. Поэтому вопрос, кому принадлежит сгенерированный контент, остаётся спорным.

В январе 2023 года трое художников подали в суд на создателей нейронных сетей Midjourney и Stable Diffusion. Они считают, что компании просто взяли 5 млн изображений из интернета «без ведома и согласия художников», чтобы тренировать свои модели.

Непонятно, как разработчики ИИ распоряжаются персональными данными пользователей. Из-за этого Amazon запретил сотрудникам использовать нейросети для работы. Случилось это после того, как специалисты компании заметили, что некоторые ответы ChatGPT имитировали внутренние данные Amazon.

Как пытаются бороться с опасностями

В марте 2023 года организация Future of Life опубликовала письмо, в котором призвала остановить развитие искусственного интеллекта и хотя бы полгода не обучать более мощные модели, чем GPT-4. Под текстом подписались даже Илон Маск и соучредитель Apple Стив Возняк.

Письмо раскритиковали специалисты по этике ИИ (да, такие уже существуют). Группа исследователей считает, что Future of Life уделяет слишком много внимания проблемам, которые может принести искусственный интеллект в будущем. Но совсем игнорирует тот факт, что он вредит уже сегодня. Одна из проблем, которую они приводят в пример, — массовая кража авторского контента для обучения нейросетей.

Затем вспыхнул новый скандал. Журналисты Business Insider разузнали, что Маск создаёт собственную нейросеть. Илон купил 10 тысяч графических процессоров, переманил к себе сотрудника ИИ-лаборатории Google, а затем зарегистрировал компанию X.AI. Хотя с момента выхода письма не прошло и месяца.

Кажется, чтобы мир научился этично использовать искусственный интеллект, ведущие компании-разработчики должны объединиться. И первые шаги в этом направлении уже есть. Например, в июне 2023 года создатель OpenAI подтвердил, что поставил на паузу разработку новой генеративной модели GPT-5. Компания пошла на этот шаг, чтобы снизить тревожность из-за мощностей искусственного интеллекта.

OpenAI призывает регулировать ИИ на международном уровне

В мае 2023 года в блоге компании появилась статья, в которой говорят, что скоро ИИ станет гораздо мощнее, поэтому его нужно регулировать — и начать стоит прямо сейчас.

Вот что предлагает OpenAI:

  • объединить усилия компаний, которые разрабатывают ИИ, и ограничить темпы роста технологий
  • создать организацию, которая бы регулировала развитие искусственного интеллекта. Такой аналог международного агентства по ядерной энергии, но только для ИИ

Ещё компания разыгрывает десять грантов по $100 000 на разработку правил для искусственного интеллекта. Сбор заявок закончился 24 июня 2023 года, о результатах публично расскажут 20 октября 2023 года.

Уже есть первые попытки регулирования ИИ на международном уровне

14 июня 2023 года депутаты Европарламента приняли закон, который:

  • запрещает использовать ИИ для распознавания лиц в общественных местах в режиме реального времени — кроме случаев расследования тяжких преступлений
  • обязует разработчиков ИИ раскрывать материалы, которые использовали для обучения модели, а также информировать пользователей о том, что контент создала нейросеть

За нарушение этих правил грозит штраф до €10 000 000.

Google DeepMind вместе с учёными из Оксфорда и Кембриджа тоже работают над созданием более этичного ИИ

У исследователей уже есть критерии оценки, которые они используют при разработке искусственного интеллекта. Например, модель не должна выдавать ложных заявлений или копировать контент, защищённый авторским правом.

Но осечки всё равно случаются — вспомним хотя бы, как нейросети начинают придумывать несуществующие факты. И такое случается не только у ChatGPT. Это общий баг разных моделей.

Google DeepMind предлагает своим разработчикам использовать специальный алгоритм по оценке рисков.

Он сможет определять:

  • можно ли использовать модель с угрозой для безопасности людей — например, создать с её помощью оружие
  • ведёт ли она себя в разных сценариях так, как предполагали разработчики, или выдаёт неожиданные результаты

Похожие меры безопасности применяет и Microsoft. В компании есть корпоративный стандарт, которому должны следовать ИИ-разработчики. Правда, что именно написано в правилах, компания не раскрывает.

Пока неясно, поможет ли это выявлять рискованные модели. Но уже сейчас понятно, что компании всерьёз озаботились этим вопросом.

А как вы считаете, нужно ли регулировать темпы развития искусственного интеллекта?

44
8 комментариев

"ИИ нарушает авторское право."-на мой взгляд это абсурд ,искусственный интеллект генерирует изображение уже из того что есть,и получается оно со всем по другому ,точно так же если художник скопирует уже существующую картину ,но на свой манер и в своей технике ,это уже сложно будет назвать плагиатом ,скорее речь больше пойдет о вдохновении и создании материала на свой лад и виденье

Ответить

Тут скорее вопрос в том, платил ли разраб за контент, который он «скармливает» нейронке для обучения

Ответить

Между «‎скопирует‎»‎ и «‎вдохновится»‎ действительно очень тонкая грань. Спасибо, что поделились своим мнением!

Ответить

А почему все концентрируются на угрозах, а не на возможностях и пользе?

Ответить

Отличный вопрос! Какую очевидную пользу лично вам может принести ИИ?

Ответить

Вы лучше сделайте стабильное соединение вашего домашнего интернета. Город Балаково, Саратовская область, на протяжении двух недель точно с 6 вечера скорость падает до 2 мбит при заявленных 100,и пинг по 190. Весь город долбит вам вк, но кроме стандартных отписок ничего реального не помогает. Может хоть тут до вас можно достучаться. Или вы тут тоже в уши льете как все прекрасно

Ответить

Сергей, мы понимаем, что сейчас без стабильного интернета никуда, поэтому наши техники настройки уже провели. Если вдруг у вас какие-то сложности еще сохраняются, пришлите, пожалуйста, данные, которые запросили у вас в личных сообщениях.

Ответить