{"id":14275,"url":"\/distributions\/14275\/click?bit=1&hash=bccbaeb320d3784aa2d1badbee38ca8d11406e8938daaca7e74be177682eb28b","title":"\u041d\u0430 \u0447\u0451\u043c \u0437\u0430\u0440\u0430\u0431\u0430\u0442\u044b\u0432\u0430\u044e\u0442 \u043f\u0440\u043e\u0444\u0435\u0441\u0441\u0438\u043e\u043d\u0430\u043b\u044c\u043d\u044b\u0435 \u043f\u0440\u043e\u0434\u0430\u0432\u0446\u044b \u0430\u0432\u0442\u043e?","buttonText":"\u0423\u0437\u043d\u0430\u0442\u044c","imageUuid":"f72066c6-8459-501b-aea6-770cd3ac60a6"}

Каких опасностей нужно ожидать от искусственного интеллекта в 2019 году Статьи редакции

Список составил журнал MIT Technology Review.

Беспилотный автомобиль Uber

Раньше было модно беспокоиться насчёт сверхумных машин, берущих под контроль мир. Но 2018 год показал, что ИИ может принести много вреда задолго до того, как это случится. Самые современные алгоритмы здорово преуспевают в восприятии — классифицировании изображений и обработке речи — однако восхищение прогрессом скрывает, как далеко мы находимся от создания инструментов, не уступающих человеку по развитию.

Более того, 2018 год показал, что сбои дают даже самые продвинутые ИИ-системы, а их бездумное применение может иметь пугающие последствия.

1. Аварии с беспилотными автомобилями

В ходе расследования смертельной аварии с беспилотником Uber специалисты выяснили, что ошибки в программе автомобиля можно было избежать. Вывести на рынок свои разработки спешат и традиционные автопроизводители, и масса различных стартапов.

Наибольшего успеха добилась Waymo, дочерняя компания Alphabet, запустившая сервис беспилотного такси в прошлом году. Тем не менее даже её машины способны ездить далеко не везде и не в любую погоду.

Автопарк Waymo

Чего ожидать в 2019 году: регуляторы в США и других странах заняли пассивную позицию из страха встать на пути инноваций, намекая, впрочем, что существующие правила безопасности могут быть ослаблены. Но пешеходы и водители не подписывались на эксперименты, поэтому ещё одна серьёзная авария в 2019 году может изменить отношение властей.

2. Политические манипуляции

В марте прошлого года активно обсуждалось влияние Facebook на американские выборы. Дискуссия показала, как можно манипулировать алгоритмами, отбирающими новости для социальных медиа.

Во время слушаний в Сенате глава Facebook Марк Цукерберг заявил, что ИИ можно обучить блокированию вредного контента, хотя сейчас такие системы далеки от полноценного понимания значения текста, изображения или видео.

Чего ожидать в 2019 году: заявления Цукерберга пройдут проверку во время выборов в двух крупнейших африканских странах: ЮАР и Нигерии. Подготовка к президентским выборам в США, которые пройдут в 2020 году, также может вызвать появление новых средств дезинформации, работающих на ИИ, включая вредоносных чат-ботов.

3. Мирные алгоритмы

В прошлом году оформилось движение за мирный ИИ — когда сотрудники Google узнали, что руководство фирмы поставляет технологии для анализа записей с дронов Военно-воздушным силам США. Работники опасались, что это сотрудничество может стать роковым шагом к автономным смертоносным ударам беспилотников. В ответ на протесты Google свернула проект и создала для ИИ этический код.

Учёные и крупные фирмы поддержали кампанию по запрету автономного оружия. Тем не менее военное использование ИИ только набирает силу, а компании вроде Amazon и Microsoft не против в этом помочь.

Чего ожидать в 2019 году: несмотря на увеличение расходов на ИИ Пентагоном, активисты надеются на превентивный запрет автономного вооружения со стороны ООН.

4. Наблюдение

Способность ИИ распознавать лица привела к тому, что многие страны развёртывают системы наблюдения. Кроме того, распознавание лица позволяет разблокировать телефон и автоматически отмечать пользователя на фотографиях в соцсетях.

Систему слежения для китайского правительства разрабатывает компания SenseTime

Подобные технологии — мощный способ вторгнуться в личное пространство людей, а необъективность обучающих данных, вероятно, поставит дискриминацию на поток. В некоторых государствах, особенно в Китае, распознавание лиц активно используется полицией. Amazon продаёт технологии Иммиграционной службе США и другим правоохранительным структурам.

Чего ожидать в 2019 году: распознавание лиц появится в автомобилях и веб-камерах и будет использоваться как для определения эмоций, так и для определения личности. И всё же в этом году, возможно, власти возьмутся за предварительное регулирование.

5. Поддельные видео

Быстрое распространение deepfake-видео в прошлом году показало, с какой лёгкостью ИИ производит поддельные ролики: порно, мэшапы и даже клеветнические кампании. В дополнение к этому, компания Nvidia, производящая графические процессоры, продемонстрировала возможности генеративно-состязательных сетей, которые могут создать фотореалистичные лица с заданными параметрами.

Все лица сгенерированы специалистами Nvidia

Чего ожидать в 2019 году: по мере развития deepfake-технологий люди, вероятно, начнут попадать в ловушку. DAPRA протестирует новые методы обнаружения поддельных видео. Но поскольку такие разработки тоже полагаются на ИИ, это будет игра в кошки-мышки.

6. Алгоритмическая дискриминация

В прошлом году необъективность отыскали во множестве коммерческих инструментов. Согласно исследованию, проведённому в MIT Media Lab, алгоритмы компьютерного зрения, обученные на ассиметричных данных, распознают женщин и людей с тёмным цветом кожи хуже, чем белых мужчин.

С проблемой необъективности связано и слабое разнообразие в изучении ИИ: женщины занимают в лучшем случае 30% рабочих мест и менее 25% преподавательских должностей в ведущих университетах.

Результаты исследования MIT Media Lab

Чего ожидать в 2019 году: появление алгоритмов обнаружения и преодоления необъективности, вывода точных данных из данных необъективных. Одна из главных международных конференций по машинному обучению пройдёт в 2020 году в Эфиопии, так как африканские учёные, изучающие предрассудки в данных, могут столкнуться с проблемами при получении виз.

0
52 комментария
Написать комментарий...
Nuke
Аварии с беспилотными автомобилями

Все произошли по вине людей в других автомобилях.

Но будем продолжать доить субъективные страхи перед лицом прогресса, прямо как в средние века.

Ответить
Развернуть ветку
Михаил Ефремов

Да и те что с пешеходами по вине пешеходов. Можно свести до абсурда что кто то спрыгнет на беспилотное авто с моста и умрет, но ор поднимут будто бы это вина беспилотника.

Ответить
Развернуть ветку
Денис Качнов

До абсурда довести можно что угодно. Проблема не в этом.
Автомату позволяют автономно принять решение кого оставить в живых, а кого задавить. Вот это опасно.

Ответить
Развернуть ветку
Михаил Ефремов

Чем же опасней чем человеку? Как раз таки машина принимает решение на основе логики, а человек в схожей ситуации либо на основе эмоций либо на основе случая, куда руль в панике дёрнет.
Потому что на большой скорости и в стрессовой ситуации тяжело заметить всех участников движения и принять рациональное решение, при это автомобилю с компьютером и камерами как минимум банально посчитать "фраги" проще, а при наличии бОльшей мощности и бОльшей сложности алгоритмов уже и проанализировать более глубинные вещи, как из тех моральных задач, кого задавить, мать с ребенком или трёх более чем взрослых людей.
Другое дело что при полной автоматизации единственным источником опасности на улицах останутся пешеходы нарушающие ПДД и этот вопрос перестанет быть актуальным

Ответить
Развернуть ветку
Денис Качнов

Опасно тем, что за действия человека несет ответственность сам человек.
Кто несет ответственность за действия автомата?

"Просчитать фраги"? Ну окей. Вы согласны с тем, что автомат через ошибку в алгоритме просчитает вас как меньшую из потерь и задавит/покалечит на переходе?
Кто должен нести ответственность за такие ошибки, как считаете?
А кто сейчас несет за них ответственность?

Ответить
Развернуть ветку
Андрей Викторович
Опасно тем, что за действия человека несет ответственность сам человек.
Кто несет ответственность за действия автомата?

Вопрос ответственности - сейчас самый главный в AI отрасли.

Признать ответственным владельца беспилотника? Но ведь не он принимал решение, а AI.

Признать ответственным сам AI? Это значит признать, что AI личность. Это повлечет за собой еще больше вопросов и дискуссий.

Нужно время и постоянные обсуждения в обществе, чтобы найти компромиссное решение.

Ответить
Развернуть ветку
Михаил Ефремов

А что толку от того что человек понесёт ответственность чисто для меня? Допустим я погибну в результате аварии. Мне уже будет пофиг на то отсидит ли человек в тюрьме и заплатит ли компенсацию моим близким.
В случае автопилота я так же будучи мертвым буду вполне "доволен" компенсацией от производителя. К тому же уже давно есть прецеденты в случаях когда доказывается косвенная причина аварии по вине производителя, тут нет ничего нового.
Да и мы обсуждаем те вещи которых не должно быть. Номинанты на премию Дарвина будут всегда, и смерть будет по их вине а не автопилота.
Автопилот не нарушает ПДД, причиной аварии (почти) всегда будет только человеческий фактор либо непреодолимая сила, например брёвна соскочили с большегруза как в известном фильме, либо условный кирпич на дорогу упал. И это либо пешеходы, либо оставшиеся водители-люди.

Ответить
Развернуть ветку
Frank Wallace

Опасность в том, что принципы деятельности нашей цивилизации с логикой НИКОЙ связи не имеют, потому успехи ИИ или минимальны или сильно ограничены в сферах использования.
Очередной хайп закончиться как и все предыдущие.

Ответить
Развернуть ветку
Михаил Ефремов

Мы уже поняли что ты нео-луддит по ветке с "едой из воздуха", можешь закончить свою пропаганду.

Ответить
Развернуть ветку
Frank Wallace

ну, а ты модерновый хайпер, можешь продолжать позориться со своим "пониманием" ситуации на Земле

Ответить
Развернуть ветку
Михаил Ефремов

Можешь переезжать к Стерлингову, вместе морально унижать колдунов-учёных и печь хлеб по 1000 рублей килограмм. Такой же профанский ответ в твою область. Хочешь показать свою картину мира напиши статью сюда, и посмотришь на реакцию общественности. А эти высеры про "понимание" оставь себе. Ты же хочешь просветить так просвети, а пока мне как то не особо верится в твою картину мира, собираемую по крупицам из комментариев.

Ответить
Развернуть ветку
Frank Wallace

С чего ты решил, что тебя в принципе можно просветить. Ржу, аж падаю.
Продолжай.
Про твои "верится-хочется", я тут как раз чтобы постебаться над тебе подобными и дать рекомендации коллегам.

Ответить
Развернуть ветку
Михаил Ефремов

А что за коллеги, если не секрет? Городские сумасшедшие или профессиональные тролли?

Ответить
Развернуть ветку
Nuke

Я скорее доверю свою жизнь машине, чем случайному человеку, у которого мало того что может не быть мозгов, так может быть субъективная причина навредить. Чем больше людей это поймут - тем безопаснее станет. Полное исключение человеческого фактора на дорогах в купе с автоматической хирургически точной системой контроля движения создаст безаварийное передвижение.
Сейчас же ваша жизнь в руках потенциальных наркоманов, алкашей, эпилептиков, школьников с комплексами самоутверждения и прочих.

Ответить
Развернуть ветку
Frank Wallace

тебе есть дело до чужих разборок?

Ответить
Развернуть ветку
Nuke

Каких разборок?

Ответить
Развернуть ветку
Frank Wallace

Попрбуй свои минусы себе в задницу засунуть, тогда голова светлей и больше понимания.

Ответить
Развернуть ветку
Виталий Асташкин

Открытые комментарии на открытой площадке, о чём вы вообще? Вы не в привате

Ответить
Развернуть ветку
Frank Wallace

тебе есть дело до чужих разборок? нам будет дело до тебя в целом, а ты о чем? открытый инет - что хотим, то и воротим

Ответить
Развернуть ветку
Виталий Асташкин

Обиженки из других веток подъехали =)

Ответить
Развернуть ветку
Сэнди Найтова

Чем студент-говнокодер отличается от случайного человека?

Ответить
Развернуть ветку
Nuke

Своим существованием.

Ответить
Развернуть ветку
Сэнди Найтова

И кого из этих персонажей сказочный?

Ответить
Развернуть ветку
49 комментариев
Раскрывать всегда