Искусственный интеллект против человечности: где границы морали?

Сегодня мир разделен на два лагеря: тех, кто боится искусственного интеллекта, и тех, кто использует его без оглядки на последствия.

Искусственный интеллект против человечности: где границы морали?

Одни уверены в том, что ИИ может привести к массовой безработице и даже подорвать моральные устои общества. Другие, напротив, видят в нём мощный инструмент для увеличения прибыли и эффективности, который может заменить многие привычные процессы. Например, такие компании, как Amazon и Google, используют ИИ для улучшения своей клиентоориентированности.

Однако главный вопрос, который возникает при обсуждении использования ИИ: насколько этично полностью полагаться на алгоритмы, которые не всегда могут учитывать социальные и моральные аспекты взаимодействия с людьми.

В этой статье мы попробуем разобраться в одной из самых актуальных для современного мира теме и сравнить две обозначенные точки зрения. Мы также расскажем, как ИИ применяется в социальном предпринимательстве сейчас и как вы можете использовать его в своих проектах.

Сторона защиты: «ИИ – герой будущего?»

Искусственный интеллект против человечности: где границы морали?

В последнее время искусственный интеллект доказал свою ценность в различных областях, помогая компаниям и обществу достигать новых вершин. Способность обрабатывать огромные объемы данных и быстро решать сложные задачи делает его мощным инструментом для повышения эффективности и улучшения качества работы и жизни.

Многие компании уже используют ИИ для повышения своей эффективности и увеличения прибыли. Согласно отчету McKinsey, внедрение ИИ позволяет компаниям повысить операционную прибыль на 15-40 % благодаря улучшению внутренних процессов и персонализации предложений. В логистике, например, ИИ позволяет создавать оптимальные маршруты доставки, что сокращает время и расходы на транспорт.

В социальном предпринимательстве, особенно в медицине, ИИ активно используется для решения важных задач. Примером является система IBM Watson Health, которая анализирует медицинские данные и помогает врачам диагностировать заболевания более точно и быстро. Исследования показывают, что ИИ может сократить ошибки в диагностике на 10-20 %, что спасает тысячи жизней ежегодно.

Ещё одним примером успешного использования ИИ для решения социально значимых задач является деятельность компании Benetech, которая разрабатывает доступные образовательные материалы для людей с ограниченными возможностями здоровья. С помощью ИИ они создают учебные материалы для лиц с нарушениями здоровья, в том числе слабовидящих, и тех, у которых есть сложности в обучении в связи, например, с дислексией, обеспечивая равный доступ к образованию миллионам учащихся по всему миру.

Сторона нападения: «ИИ – враг человечества?»

Стремительное развитие любой новой технологии, будь то криптовалюта, блокчейн или искусственный интеллект, всегда вызывает серьезные опасения не только у экспертов, но и общества в целом. Что такое ИИ? Почему это так популярно?

Одной из ключевых проблем, с которой может столкнуться общество в условиях широкого применения новых технологий, является возможная массовая безработица. В секторах, где задачи легко поддаются автоматизации, таких как производство и логистика, многие могут лишиться работы – это вызывает беспокойство не только среди сотрудников, но и у экономистов, которые предупреждают о возможном росте социального неравенства. Так, в исследовании McKinsey Global Institute описывается, что автоматизация может затронуть до 800 миллионов рабочих мест по всему миру в ближайшие десятилетия.

Появляется все больше исследований и на тему этичности использования ИИ, в которых отмечается, что решения, принимаемые без влияния человеческих эмоций и учета моральных норм, могут привести к нежелательным последствиям.

В медицине, например, автоматизированные системы принятия решений и ИИ могут не учитывать особенности каждого пациента, что сильно сказывается на качестве медицинской помощи. Для принятия справедливых и правильных решений в социальной сфере учитывать контекст, эмоции и конкретные обстоятельства людей особенно важно. ИИ пока на это не способен.

Граница морали

Одним из центральных вопросов, который возникает, когда мы затрагиваем тему ИИ, – распределение ответственности. А именно: кто должен нести ответственность в случае, когда алгоритм принимает ошибочное решение или затрагивает определенные, этически некорректные, темы: разработчики, компании или индивидуальные пользователи?

Многие эксперты считают, что ответ на этот вопрос зависит от степени контроля, которую каждая из сторон имеет над ИИ. Например, разработчики отвечают за создание алгоритмов, но конечные решения и их последствия могут зависеть от того, как компании применяют эти алгоритмы на практике.

«ИИ обучается на данных всего интернета и действует по алгоритмам, которые далеки от человеческого понимания морали. Тем не менее, к примеру, разработчики проекта OpenAI, которые создали Chat GPT, активно работают над созданием алгоритмов, которые могут учитывать различные этические нормы. По их мнению, при обучении ИИ на тщательно отобранных данных и при соблюдении определенных принципов можно создать «моральный ИИ».

Однако усложняется данная задача еще и тем, что моральные нормы варьируются и часто зависят от культуры, страны и контекста запросов. Поэтому вопрос о том, можно ли «научить» ИИ быть добрым в универсальном смысле, остаётся предметом дискуссий.

На международном уровне многие страны начинают вводить законы и правила, регулирующие использование ИИ. Например, Европейский союз разработал Закон об ИИ (AI Act), в котором описаны стандарты безопасности ИИ-систем, затрагивающих жизнь и работу людей. Этот закон требует, чтобы ИИ-системы, которые могут оказать значительное воздействие на общество, проходили сертификацию и соблюдали определенные стандарты безопасности.

В России в 2019 году была утверждена Национальная стратегия развития искусственного интеллекта на период до 2030 года, в рамках реализации которой принимаются законы, направленные на развитие перспективных инноваций, в том числе в сфере ИИ. Для апробации и внедрения цифровых инноваций устанавливаются экспериментальные правовые режимы (ЭПР). Часть действующих в настоящее время ЭПР предполагает использование ИИ, например телемедицина, беспилотные грузовые и пассажирские перевозки.

А с 5 января 2025 года вступят в силу нормы, устанавливающие порядок рассмотрения случаев причинения вреда жизни, здоровью или имуществу в результате использования технологии ИИ при реализации экспериментального правового режима. Кроме того, эксперты отмечают, что в настоящее время ведется работа по созданию и внедрению стандартов в сфере искусственного интеллекта.

ИИ в социальном предпринимательстве

Искусственный интеллект против человечности: где границы морали?

При обучении ИИ важно тщательно отбирать данные, которые минимизируют предвзятость. Это особенно актуально для проектов, направленных на поддержку уязвимых групп, где риск дискриминации может быть особенно высоким. Использование инклюзивных и разнообразных данных, а также правильный подбор ИИ-инструментов поможет избежать ошибок. Один из таких инструментов – DataRobot, который помогает социальным предпринимателям представлять ясные и понятные результаты своей деятельности для всех целевых групп.

Мы рекомендуем социальным предпринимателям сосредоточиться на применении ИИ не для получения краткосрочных выгод, а в качестве помощника в достижении устойчивых изменений: технологии ИИ можно использовать при формировании долгосрочных стратегий, способствующих улучшению качества жизни и благополучию общества. Важным аспектом также является обеспечение доступности информации о применяемых алгоритмах ИИ для общественности.

Финальный раунд

Искусственный интеллект – не просто технология, это инструмент, способный изменить мир. Однако успех его внедрения зависит от того, как мы: законодатели, разработчики, предприниматели, пользователи – будем его регулировать и использовать. Как отметила генеральный директор Организации Объединенных Наций по вопросам образования, науки и культуры (ЮНЕСКО) Одре Азуле в отчёте об этичном использовании ИИ: «чтобы ИИ стал силой во благо, нужно не только инвестировать в его техническое развитие, но и формировать в обществе культуру осознанного использования технологий» .

Будущее ИИ зависит от наших совместных усилий. Разработка законов, норм и стандартов, привлечение экспертного сообщества и общественности к обсуждению этических вопросов поможет сформировать более справедливую и безопасную среду для внедрения ИИ.

Превратив ИИ в инструмент, который служит интересам общества, мы сможем сделать его «человечным» и полезным для каждого. Социальное предпринимательство может сыграть ключевую роль в создании ИИ, который будет служить на благо общества, а не только в интересах бизнеса. Акцент на сохранение моральных стандартов и человеческих ценностей поможет создать будущее, где технологии будут союзником человечества, а не угрозой для него.

2 комментария

И так... постепенно эйфория от ИИ начинает сходить на нет и люди наконец то стали задаваться правильными вопросами. А правда в том, что разработчиков ИИ нужно ограничивать, да нейросети это очень мощный инструмент, но он и должен оставаться инструментов в руках человека а не наоборот.

1
Ответить

Согласны, спасибо за комментарий

Ответить