1.2.Ошибки ИИ

«Эпичные провалы ИИ» продолжаются, и с каждым годом их становится всё больше и больше:

IBM разработала суперкомпьютер Watson, чтобы расширить его словарный запас, ИИ разрешили изучить Urban Dictionary. Новые слова помогли бы Watson свободнее общаться с молодёжью, но почему-то никто не учёл, что во многих статьях словаря есть нецензурная лексика. В результате ИИ научился ругаться и отвечать на вопросы матом, даже когда к нему обращались вежливо и не ждали эмоциональной реакции. Watson не смог отличать обычную речь от ненормативной. После этого IBM ограничила компьютеру доступ к Urban Dictionary и долго отучала его ругаться. В алгоритмы встроили фильтр, который не разрешал Watson использовать неприличные слова.
В марте 2016 года ещё более печальная история случилась с чат-ботом Тэй от Microsoft. Его отключили уже через 16 часов после запуска. За это время ИИ успел наговорить в Twitter столько гадостей, что человека на его месте посадили бы в тюрьму за разжигание вражды и национализм. Начиналось всё спокойно. В Twitter создали аккаунт выдуманной 19-летней девушки по имени Тэй. Любой пользователь мог написать ей и получить ответ, который генерировал искусственный интеллект. Алгоритмы Тэй спроектировали так, чтобы ИИ самообучался и подстраивался под человеческий стиль общения. Программа находила в интернете информацию, если не знала, что написать. Тролли спрашивали Тэй о провокационных вещах: холокосте, феминизме, запрещённых препаратах и тогдашнем президенте Бараке Обаме. Чат-бот очень быстро научился плохому и начал публиковать скандальные твиты: После этого создатели заблокировали чат-бота, извинились перед всеми, кого он обидел, и начали удалять твиты — за 16 часов их набралось 96 тысяч.
Вскоре Microsoft поработала над ошибками и выпустила нового чат-бота под названием Zo. В него встроили систему защиты: если ИИ понимал, что с ним говорят о сложных темах, он просто отказывался их обсуждать или отвечал шаблонными фразами. Получился политкорректный бот, который имитировал тринадцатилетнего подростка. Zo продержался целых три года, хотя тоже выдавал нелепые ответы. Например, Zo странно высказался о террористах, а затем признался, что, по его мнению, Windows 10 хуже предыдущих. Чат-бот посоветовал не обновлять систему из-за шпионского ПО и похвалил устаревшую Windows 7. Возможно, из-за таких ответов Zo отключили в 2019 году.

Роботов также пытаются обучить шить, но получается пока не особо качественно. Всего один робот от SoftWear Automation может заменить обычную швейную линию из 10 работников и произвести около 1142 футболок за восемь часов вместо 669, которые могли бы сшить вручную 10 портных. Если пересчитать такую производительность немного иначе, получается, что за час робот выполняет работу за 17 человек. Резонно заметить, отчего же такие роботы уже не заменили всех и каждого на швейном производстве, но все дело в недостатках, которыми они пока что отличаются. Такой робот умеет шить все те же футболки и частично джинсы, но не справляется с мягкими тканями, которые требуют в работе особой точности. Пока что творения таких роботов далеки от совершенства, по-прежнему невозможно представить себе, чтобы такая машина могла сшить платье от модельера, в котором любая звезда захочет прогуляться по красной ковровой дорожке. Кроме того, как мы прекрасно знаем, высокая мода основана на ручном труде талантливейших профессионалов своего дела, и автоматизация в корне противоречит духу haute couture.

И это лишь только часть примеров неудачной работы Искусственного интеллекта. Системы ИИ необходимо правильно развивать и совершенствовать. На это может уйти время и ресурсы, и следует быть готовым к временным неудачам. Но уже сейчас мы можем сделать неутешительные выводы о том, что ошибки ИИ наносят большой вред и урон в различных видах деятельности человека.

0
Комментарии
-3 комментариев
Раскрывать всегда