{"id":14275,"url":"\/distributions\/14275\/click?bit=1&hash=bccbaeb320d3784aa2d1badbee38ca8d11406e8938daaca7e74be177682eb28b","title":"\u041d\u0430 \u0447\u0451\u043c \u0437\u0430\u0440\u0430\u0431\u0430\u0442\u044b\u0432\u0430\u044e\u0442 \u043f\u0440\u043e\u0444\u0435\u0441\u0441\u0438\u043e\u043d\u0430\u043b\u044c\u043d\u044b\u0435 \u043f\u0440\u043e\u0434\u0430\u0432\u0446\u044b \u0430\u0432\u0442\u043e?","buttonText":"\u0423\u0437\u043d\u0430\u0442\u044c","imageUuid":"f72066c6-8459-501b-aea6-770cd3ac60a6"}

Этика AI и ответственность компаний и брендов, его «приручивших»

На днях в сети довольно широко разошелся случай, когда чат-бот одного известного банка предложил своему клиенту, я цитирую: «пальцы бы вам отрезать».

Многих это, мягко говоря, возмутило, а кто-то из комментирующих, как и сам банк, наоборот, написали, что не о чем тут беспокоиться, у робота бывает…

Но моя заметка не про баг в чат-боте и не про дальнейшие комментарии службы поддержки и их оценку другими пользователями, а про сам прецедент взаимодействия робота и человека в уже привычной очень многим обстановке (среде).

Обычно подобной работой занимались и занимаются обученные call centre или стажеры. И у тех, и у других кроме надежды на собственное благоразумие не предлагать клиентам что-то себе отрезать, были варианты жесткого контроля: когда им вводили, например, список стоп-слов; и вариант очень жесткого контроля: когда можно было отвечать только по скриптам и больше никак.

Как бы поступили раньше, если что-то некорректное сказал сотрудник магазина? Вероятно, клиент потребовал бы жалобную книгу, потом организация могла оштрафовать сотрудника и внести коррективы в обслуживание. Далее магазин мог принести извинения клиенту. То есть ошибку совершал сотрудник и его могли уволить и/или оштрафовать, а отвечала за всё еще и компания.

Предположу, что в штатах за такой ответ компанию могли бы засудить, но не уверен, т.к. не юрист. В России же, судя по комментарию юриста, ничего особо не сделать:

«С правовой точки зрения, на моральный вред не тянет, нравственных и эмоциональных страданий не доказать ( читай — справку у Врача не получишь). Угрозы жизни и здоровью в явном виде тоже нет. Перспективы нет никакой...» (дальше там про жалобы регулятору и стандарты ЦБ, но это уже слишком - не закрывать же банк из-за сотрудника или бота)

А как же быть пользователю и компании сейчас? Когда коммуникация строится через чат-бота, в котором нейронка, по факту, непредсказуема даже для её создателей?

Про тему неких кодексов и правового статуса AI уже высказывались, например, и вездесущий Маск, и Дмитрий Гришин. Но они говорили о планах на будущее, а сейчас нейронка стала масс маркетом, люди не удивляются наличию робота в коммуникациях, почти не обращают внимание на то, что порой он отвечает не в тему, но справедливо обижаются на бренд, когда он им хамит. Ситуация на самом деле еще сложнее: робот неосознанно может навредить.

Раз такие случаи происходят на массовом рынке, то не пора ли еще раз повторить и более четко внедрить законы робототехники Айзека Азимова? А может и их пора немного обновить и/или сделать обязательными для внедрения и внутренних правил компаний?

"AI may not injure a human being (threaten or insult a person) or, through inaction, allow a human being to come to harm"

0
2 комментария
Татьяна Монахова

И смешно, и грустно. AI у людей же обучается.

"На зеркало неча пенять, коли рожа крива..."

Ответить
Развернуть ветку
Alexey Karlov
Автор

у меня немного шире вопрос - про этику и/или рамки обучения тоже 

Ответить
Развернуть ветку
-1 комментариев
Раскрывать всегда