{"id":14284,"url":"\/distributions\/14284\/click?bit=1&hash=82a231c769d1e10ea56c30ae286f090fbb4a445600cfa9e05037db7a74b1dda9","title":"\u041f\u043e\u043b\u0443\u0447\u0438\u0442\u044c \u0444\u0438\u043d\u0430\u043d\u0441\u0438\u0440\u043e\u0432\u0430\u043d\u0438\u0435 \u043d\u0430 \u0442\u0430\u043d\u0446\u044b \u0441 \u0441\u043e\u0431\u0430\u043a\u0430\u043c\u0438","buttonText":"","imageUuid":""}

1.1. Ошибки ИИ

На планете не существует совершенных и идеальных людей, машин, компьютеров, техники… Везде есть свои недостатки. И мы всегда должны помнить об этом. Конечно, положительный эффект от работы Искусственного интеллекта выявлен во многих областях человеческой деятельности, но существуют и побочные эффекты...

Один из примеров, совсем недавний случай, когда в США управляемая ИИ машина (автомобиль Tesla Model X) уехала в водоём с женщиной-миллиардером. В сводках написали, что погибла миллиардер Анджела Чао. В результате несчастного случая ее автомобиль затонул в пруду в Техасе. Всё произошло, не смотря на то, что эта модель машины является одной из самых безопасных в мире. Некорректная работа в связи со сбоями и поломками может привести к плохим результатам, в т. ч. и несчастным случаям.

Ошибки ИИ происходят и в других областях человеческой деятельности. В частности, это происходит из-за неправильного программирования. Из-за ошибок искусственного интеллекта Сбербанк «потерял миллиарды рублей». Об этом во время выступления в московской «Хорошколе» рассказал глава банка Герман Греф, пишет РБК. Глава Сбербанка рассказал учащимся частной школы о том, как работает искусственный интеллект и какие есть риски работы с ним. По словам Грефа, «маленькая ошибка, закравшаяся в алгоритм, может приводить к очень большим последствиям». Сбербанк из-за подобных ошибок потерял, по словам Грефа, большие деньги.

Приведу ещё ряд примеров неудачной работы ИИ из материалов журнала Forbes:

Корпорация Amazon, наряду с другими технологическими гигантами США, является одним из центров разработок в области искусственного интеллекта. В 2017 году компания закрыла экспериментальный проект по найму сотрудников на основе ИИ, который вела около трех лет. Представители компании хотели добиться того, чтобы отобрать пятерку лучших кандидатов из сотни резюме. Одной из ключевых проблем стала гендерная дискриминация кандидатов — алгоритм занижал оценки кандидатов-женщин, поскольку был обучен на прошлом десятилетнем опыте отбора кандидатов в Amazon, среди которых преобладали мужчины. Были и другие сложности: алгоритм нередко выдавал практически случайные результаты.

Роботизированные устройства с искусственным интеллектом стали обязательными гостями технологических форумов. Но нередко они портят впечатление от мероприятия. Робот для управления умным домом Cloi от компании LG провалил миссию на выставке CES 2018, где должен был продемонстрировать, как искусственный интеллект сможет улучшить использование приборов на кухне. В ходе презентации Cloi не смог ответить на три команды директора по маркетингу LG, создав неловкую тишину в зале. А в 2017 году робот Mitra не смог внятно поприветствовать советника Белого дома Иванку Трамп и премьер-министра Индии Нарендру Моди на открытии Global Entrepreneurship Summit. Они нажали кнопки со своими флагами одновременно, а не по очереди, и робот запнулся на полуслове.

Принадлежащая SoftBank компания Boston Dynamics выпустила гуманоидного робота Atlas, который может заниматься паркуром, перемещать предметы и многое другое. Андроид продемонстрировал свои возможности на Congress of Future Scientists and Technologists, но, уходя со сцены, неловко споткнулся о занавес и упал.

Распространение беспилотных автомобилей выглядит неизбежным будущим, однако, еще не решены важные вопросы — например, этический выбор в опасных ситуациях. При этом сами тестовые испытания проходят с трагическими последствиями. Весной 2018 года Uber тестировала беспилотный автомобиль на базе одной из моделей Volvo на улицах города Темп в штате Аризона, США. Машина сбила женщину насмерть. Тестирование автопилота проводилось при сниженной чувствительности к распознанным опасным объектам, чтобы избежать ложных срабатываний. Когда порог чувствительности снижался, система видела опасные объекты там, где их не было. Tesla зафиксировала уже два дорожных инцидента со смертельным исходом — в 2016 и 2018 годах. Пострадали водители, ехавшие в автомобилях с включенным автопилотом и не контролировавшие управление на сложных участках.

Власти Китая активно используют системы распознавания лиц для борьбы с правонарушениями. В частности, они отслеживают пешеходов, переходящих дорогу не по правилам, и затем публикуют их имена и фото на специальных «позорных» табло, предупреждая о последствиях. В число нарушителей по ошибке попала топ-менеджер из списка 100 самых влиятельных женщин по версии Forbes Дун Минчжу. Причиной инцидента стало ее изображение на автобусе в рекламном постере ее компании Gree Electric Appliances. Лично на перекрестке она не присутствовала.

В 2016 году гражданину азиатского происхождения Ричарду Ли робот отказал в приеме документов на получение паспорта Новой Зеландии, сделав вывод, что на фотографии его глаза закрыты.

Даже такому гиганту, как IBM, непросто обуздать технологию искусственного интеллекта. Несколько лет компания изучает вопросы применения ИИ для поддержки принятий врачебных решений. Один из фокусов исследований — лечение онкологических заболеваний. После массированной рекламной кампании пользователями услуг суперкомпьютера Watson стали исследовательские лаборатории и медицинские центры по всему миру. Через три года после старта продаж, летом 2018 года, медицинское издание STAT выяснило, что суперкомпьютер не соответствует завышенным ожиданиям. Журналисты смогли получить доступ к внутренним отчетам компании IBM: Watson зачастую давал ошибочные, а иногда опасные для жизни рекомендации по выбору метода лечения. Эксперты IBM предполагают, говорится в том же исследовании STAT, что некоторые ошибки суперкомпьютера обусловлены методикой его обучения. В частности, при обучении были использованы не реальные клинические случаи, а «синтетические» модели.

ИИ зачастую не соответствует в полной мере ожиданиям создателей, не смотря на то, что прикладываются огромные усилия разработчиков...

0
Комментарии
-3 комментариев
Раскрывать всегда