Это год регулирования в области искусственного интеллекта

Мир искусственного интеллекта постоянно развивается, и, конечно же, то же самое происходит с правовой и нормативной средой, в которой он существует. Перевод статьи управляющего партнера компании Cognilytica Кэтлин Уолч в Forbes c комментарием директора по искусственному интеллекту компании “Цифра” Александра Смоленского.

Это год регулирования в области искусственного интеллекта

Кэтлин Уолч является управляющим партнером и главным аналитиком в ориентированной на ИИ научно-исследовательской и консультационной фирме Cognilytica. Она также является соведущим популярного подкаста AI Today, одного из лучших связанных с ИИ подкастов, который освещает различные сценарии использования ИИ как в общественном, так и в частном секторах, а также берет интервью у приглашенных экспертов на связанные с ИИ темы.

Майкл Хэйс (Michael Hayes), старший менеджер по связям с правительством в Ассоциации потребительских технологий США (CTA), уделяет большое внимание этим возникающим проблемам, которые вступают в противоречие с существующими законами и нормативными положениями. Ранее Майкл работал в Конгрессе США над патентной реформой, направленной против патентных троллей. В рамках своей нынешней должности Майкл, в частности, обеспечивает такой способ формирования возникающих дискуссий по вопросам политики в данной области, чтобы данная технология могла процветать и обеспечивать конкурентные преимущества компаниям, реализующим проекты без создания новых рисков.

Дискуссии по поводу данных и конфиденциальности в области искусственного интеллекта

Было множество опасений по поводу использования данных корпорациями и правительством, а также о значимости конфиденциальности. По всему миру правительства вводят правила и нормативные положения, чтобы помочь оградить данные от нецелевого использования, и наиболее заметными в этой области являются Общий регламент по защите данных (GDPR) Европейского союза и Закон о защите конфиденциальности потребителей в Калифорнии (CCPA). В 2018 году CTA учредила рабочую группу по искусственному интеллекту (ИИ), состоящую из компаний, ведущих деятельность в области ИИ, чтобы сосредоточить усилия на установлении принципов политики в отношении ИИ, среди которых конфиденциальность и использование данных имеют первостепенное значение.

Так как данные являются "горючим", питающим системы ИИ, и поскольку для того, чтобы ИИ работал надлежащим образом и выдавал ожидаемые данные, нужны наборы высококачественных данных, компании все больше используют данные с ведома или без ведома своих пользователей и потребителей. Однако в то же время успешное использование ИИ базируется на общественном доверии. Общество хочет знать, как и почему ИИ приносит им пользу, и, что наиболее важно, общество хочет знать, как используются их данные. Организациям нужно выработать разумный баланс между тем, какие данные нужны для надлежащей работы ИИ, и верой людей в то, что данные используются рационально.

Однако такой баланс необязательно одинаков для разных стран. То, что может быть приемлемым использованием данных в США, может оказаться неприемлемым для живущих в Европе или Азии. Майкл полагает, что разработка определений чрезвычайно важна для ИИ, но в то же время очень трудновыполнима. Те, кто ведет деятельность в экосистеме ИИ, знают, что общепринятого определения ИИ не существует. Действительно, мы не можем дать определение даже самому интеллекту. Если вы попросите находящихся в одной комнате людей дать определение ИИ, вы, скорее всего, получите от каждого из них немного разные определения. Тем не менее, для информирования лиц, определяющих политику, и получения общей основы для формирования законов и нормативных положений рано или поздно определение ИИ будет окончательно сформулировано в регламенте или законе. На самом деле, законы, политика и нормативные положения для ИИ уже скоро появятся.

В 2018 году в Конгрессе было проведено несколько слушаний по ИИ. Первое слушание было посвящено приглашению экспертов из промышленности и научного сообщества, чтобы проконсультировать комитет по поводу того, как происходило развертывание ИИ, и с какими проблемами он сталкивался. На втором слушании выступали люди из правительства, которые говорили о том, как они могут использовать ИИ в своих учреждениях, чтобы повысить эффективность их работы. И, наконец, на третье слушание были приглашены специалисты, включая руководителя CTA, для дискуссии о прокладывании дальнейшего маршрута в политике и о том, на чем должен сфокусировать внимание подкомитет. На этих слушаниях были затронуты некоторые ключевые проблемы, такие как конфиденциальность и сокращение рабочих мест. Было полезно понять проблемы, прежде чем принимать законопроекты по данному вопросу. Вместо того, чтобы торопить составление законов и бросаться "с места в карьер", подкомитет хотел получить наиболее полную информацию перед созданием законодательства. В других странах, таких как Франция и Китай, имели место большие подготовительные этапы в области политики в отношении ИИ. В этой сфере существует глобальная конкуренция, и если мы сможем продвигаться вперед все вместе, между теми, кто определяет производство и политику, то, по мнению Майкла, США будут в состоянии сохранять лидерство в области ИИ.

Промышленность должна стремиться обогнать правительство. Если промышленность не придет к консенсусу по вопросу определения, тогда процесс будет передан менее информированным законодателям. Будучи активными участниками попыток дать этим терминам определения и представляя нужды индустрии, Майкл и CTA полагают, что они могут обеспечить более исчерпывающие выкладки и анализ для того, чтобы помогать направлять индустрию в нужную сторону. Ответственным за политику лицам, работающим над законодательством, связанным с ИИ, индустрия помогает достичь точки формирования терминологии в сфере ИИ, и Майкл полагает, что рабочая группа CTA может быть надежным источником.

Применение искусственного интеллекта для нужд правительства

ИИ может применяться во множестве разнообразных сфер деятельности правительства в целях улучшения эффективности и продуктивности принятых им мер. Например, ИИ может быть способен решить некоторые проблемы, связанные с дорогостоящей и комплексной сферой медицинского обслуживания в США. Один из способов заключается в том, чтобы с помощью ИИ взять большой объем данных, используемых медицинскими устройствами в больничных условиях, и позволить врачам использовать эту информацию в режиме реального времени, а также информировать лица, ответственные за решения в области здравоохранения, и медицинские организации. Подобное применение ИИ и машинного обучения может помочь врачам анализировать данные в режиме реального времени и в процессе работы обосновывать свои решения, снижать вероятность ошибок и обеспечивать быстрый анализ или точную диагностику.

Аналогичным образом ИИ может помочь сделать государственные системы более отказоустойчивыми перед лицом возникающих кибератак. ИИ уже применяется для обнаружения паттернов кибератак раньше людей-операторов и автоматического устранения этих проблем. Кроме того, такие организации, как Управление служб общего назначения (GSA), Служба внутренних доходов (IRS) и многие другие организации предвидят огромную отдачу от автоматизации бизнес-процессов и использования ИИ для обоснования принятия решений и предиктивной аналитики. Действительно, правительства во всем мире верят в долгосрочную стратегическую ценность ИИ и прилагают значительные усилия для развития своих местных экосистем ИИ.

ИИ продолжает становиться все более вездесущим, и по мере того как мы продолжаем рассматривать его в большем количестве аспектов нашей повседневной жизни, общество будет получать от этого огромную пользу. Однако в то же время организации понимают, что в результате использования ИИ будет возникать все больше новых проблем. В число этих проблем входят потеря рабочих мест, использование технологии распознавания лиц, вопросы, связанные с этикой и необъективной, ангажированной информацией, использование автономных транспортных средств и даже автономной боевой техники и другие аспекты алгоритмического принятия решений. ИИ окажет разрушительное воздействие на профессии и рабочие места некоторых людей, но он также принесет огромную пользу другим профессиям, например в области медицины. Эти проблемы, касающиеся трудового населения, распространяются также и на новые требования к образованию. Трудовое население будущего необходимо обучить навыкам работы с ИИ, чтобы в будущем оно могло смело встретить новые реальности ИИ.

Будущее ИИ зависит от соблюдения баланса между перспективами, связанными с более интеллектуальными машинами, помогающими нам в повседневной жизни, и решением потенциально разрушительных проблем. Этот баланс должен быть отражен в нормативной базе, достаточной гибкой и способной обеспечить возможность процветания индустрии. Непохоже, чтобы процесс внедрения ИИ и когнитивных технологий замедлялся, и правительства внимательно следят за этим процессом.

Нужно прямо указать на то, что технологии ИИ в их текущем состоянии не обладают какие-то особыми свойствами по сравнению с автоматизацией и цифровизацией в целом, то есть сбором данных и принятием решений на их основе. Ключевая разница в том что часть задач социальных или промышленных решается не алгоритмическими способами, а методами машинного обучения. Например если вы хотите идентифицировать людей на улице можно создать базу данных с фотографиями всех граждан страны, а дальше напрямую сверять с этой базой данных снимки сделанные уличными камерами. Да, компьютерное зрение справится с этой задачей значительно быстрее и дешевле, но никаких новых качеств подобная система не несет. То же самое с роботами на складе или системами автоматизации управляющими процессом плавки стали. Старые добрые алгоритмы справились бы и с этой задачей, а ИИ просто относительно дешевый и удобный инструмент.

Сейчас идет становление технологий ИИ и, с точки зрения человека ангажированного и заинтересованного в их скорейшем развитии, самым опасным действием кажется зарегулировать отрасль которая только родилась, хуже может быть только отказ от её развития на основе возможных рисков. К чести нашего правительства нужно сказать что оно относится к ИИ весьма серьезно. Федеральный проект "Искусственный интеллект" подразумевает и развитие технологий, и работу с законодательной базой с целью минимизировать возможные риски. Будем надеяться, что баланс между людьми и ИИ будет найден быстро и безболезненно.

В современной России ситуация скорее обратная, особенно в том что касается промышленных предприятий. Данные охраняются очень тщательно и скрупулёзно целым рядом федеральных законов, сверху на них накладываются ограничения которые вводят службы информационной защиты на каждом конкретном предприятии. У нас скорее риски связаны не с злоупотреблением ИИ, а с тем что в отсутствии доступных и разнообразных данных, например, промышленных, мы начнем отставать от других стран вовлеченных в эту гонку, потеряем тот очень неплохой технологический задел который у нас есть сейчас и в результате нам через несколько лет придется импортировать технологии и решения ИИ. А вот это представляет собой серьезный риск, учитывая весь опыт последних десятилетий показывает, что если крупный программный комплекс делал не ты, то и контролировать полностью ты его не сможешь.

На данном этапе вести дискуссии о роли ИИ в потере рабочих мест, неэтичном использовании данных приятно и интересно, но в отрыве от остальных информационных технологий, которые продолжают стремительно развиваться, не очень правильно.

Александр Смоленский, Директор по искусственному интеллекту компании "Цифра".
44 показа
317317 открытий
Начать дискуссию