Хакатон SberCloud
для разработчиков
До конца регистрации:
07
:
00
:
49
:
07
Подробнее
Machine learning
Alexey Karlov
212

Этика AI и ответственность компаний и брендов, его «приручивших»

На днях в сети довольно широко разошелся случай, когда чат-бот одного известного банка предложил своему клиенту, я цитирую: «пальцы бы вам отрезать».

В закладки

Многих это, мягко говоря, возмутило, а кто-то из комментирующих, как и сам банк, наоборот, написали, что не о чем тут беспокоиться, у робота бывает…

Но моя заметка не про баг в чат-боте и не про дальнейшие комментарии службы поддержки и их оценку другими пользователями, а про сам прецедент взаимодействия робота и человека в уже привычной очень многим обстановке (среде).

Обычно подобной работой занимались и занимаются обученные call centre или стажеры. И у тех, и у других кроме надежды на собственное благоразумие не предлагать клиентам что-то себе отрезать, были варианты жесткого контроля: когда им вводили, например, список стоп-слов; и вариант очень жесткого контроля: когда можно было отвечать только по скриптам и больше никак.

Как бы поступили раньше, если что-то некорректное сказал сотрудник магазина? Вероятно, клиент потребовал бы жалобную книгу, потом организация могла оштрафовать сотрудника и внести коррективы в обслуживание. Далее магазин мог принести извинения клиенту. То есть ошибку совершал сотрудник и его могли уволить и/или оштрафовать, а отвечала за всё еще и компания.

Предположу, что в штатах за такой ответ компанию могли бы засудить, но не уверен, т.к. не юрист. В России же, судя по комментарию юриста, ничего особо не сделать:

«С правовой точки зрения, на моральный вред не тянет, нравственных и эмоциональных страданий не доказать ( читай — справку у Врача не получишь). Угрозы жизни и здоровью в явном виде тоже нет. Перспективы нет никакой...» (дальше там про жалобы регулятору и стандарты ЦБ, но это уже слишком - не закрывать же банк из-за сотрудника или бота)

А как же быть пользователю и компании сейчас? Когда коммуникация строится через чат-бота, в котором нейронка, по факту, непредсказуема даже для её создателей?

Про тему неких кодексов и правового статуса AI уже высказывались, например, и вездесущий Маск, и Дмитрий Гришин. Но они говорили о планах на будущее, а сейчас нейронка стала масс маркетом, люди не удивляются наличию робота в коммуникациях, почти не обращают внимание на то, что порой он отвечает не в тему, но справедливо обижаются на бренд, когда он им хамит. Ситуация на самом деле еще сложнее: робот неосознанно может навредить.

Раз такие случаи происходят на массовом рынке, то не пора ли еще раз повторить и более четко внедрить законы робототехники Айзека Азимова? А может и их пора немного обновить и/или сделать обязательными для внедрения и внутренних правил компаний?

"AI may not injure a human being (threaten or insult a person) or, through inaction, allow a human being to come to harm"

{ "author_name": "Alexey Karlov", "author_type": "self", "tags": [], "comments": 2, "likes": 7, "favorites": 5, "is_advertisement": false, "subsite_label": "ml", "id": 94566, "is_wide": true, "is_ugc": true, "date": "Wed, 27 Nov 2019 19:22:04 +0300", "is_special": false }
Объявление на vc.ru Отключить рекламу
0
2 комментария
Популярные
По порядку
2

И смешно, и грустно. AI у людей же обучается.

"На зеркало неча пенять, коли рожа крива..."

Ответить
0

у меня немного шире вопрос - про этику и/или рамки обучения тоже 

Ответить

Комментарии

null