Зачем нанимать людей, притворяющихся искусственным интеллектом, который притворяется человеком

Конспект статьи The Guardian о том, как компании обманывают пользователей, используя людской труд вместо машинного.

Создать приложение на базе искусственного интеллекта сложно. Настолько, что проще и дешевле заставить человека выдавать себя за робота, чем заставить машину вести себя как человек, пишет The Guardian.

Задействуя ручной труд, вы обходите стороной множество деловых и технических проблем. Люди не могут обработать столько информации, сколько под силу обработать компьютеру, но это позволяет запустить процесс и на первых порах не думать о сложностях.

Грегори Кобенгер, генеральный директор компании ReadMe

Расследование об этом недавно опубликовало издание Wall Street Journal — журналисты узнали, что у сотен сторонних разработчиков есть доступ к почтовым ящикам Google.

Специалисты по искусственному интеллекту из Edison Software самостоятельно прочли множество писем пользователей (без их идентификационных данных), чтобы улучшить «"умный" ответ» — одну из функций приложения Edison Mail. В политике конфиденциальности компании, однако, не указано, что в переписку смогут заглянуть люди.

Впрочем, отмечает WSJ, подобное случалось и ранее. В 2008 году британскую фирму Spinvox, занимавшуюся преобразованием голосовых сообщений в текстовые, обличили в том, что для конвертации она использовала труд операторов зарубежных call-центров, а не алгоритмы.

В 2017 году разработчики приложения для управления расходами Expensify признали: для обработки некоторых чеков компания пользовалась не заявленной технологией «умного» сканирования, а краудсорсинговой платформой Amazon Mechanical Turk, где за деньги рабочие распознавали нужные данные.

«Не уверена, знают ли пользователи приложения о том, что их чеками занимаются фрилансеры, — задаётся вопросом Рошель Лаплант, работающая на MTurk. — Мне как-то попадалась выписка от Uber, где указаны полное имя пассажира, адреса посадки и высадки».

Даже Facebook, несмотря на серьёзные инвестиции в ИИ, положилась на людей, разрабатывая виртуального помощника для своего мессенджера.

Как основать ИИ-стартап: наймите людей, притворяющихся искусственным интеллектом, который притворяется человеком, и ждите, когда ИИ всё же изобретут

Элисон Дарси, психолог и создательница чат-бота для психологической поддержки Woebot, называет скрытое замещение машины человеком «техникой волшебника из страны Оз». Такой подход позволяет существенно улучшить пользовательский опыт.

«Зачастую, когда дело касается искусственного интеллекта, процессом управляет не алгоритм, а человек, — поделилась Дарси с The Guardian. — Хорошая ИИ-система требует множества данных, и порой создатели хотят оценить спрос на будущую разработку, перед тем как вкладывать в неё деньги».

Исследование Университета Южной Калифорнии показало: люди, как правило, охотнее делятся чувствами, думая, что общаются с машиной. Университет провёл эксперимент с виртуальным терапевтом по имени Элли. Исследователи обнаружили, что ветераны с посттравматическим стрессовым расстройством охотнее рассказывали о своих переживаниях, когда знали, что Элли — это система искусственного интеллекта.

Поэтому некоторые уверены, что компании не должны скрывать то, как работают их сервисы. «Мне такие фирмы не по душе, — делится мыслями Лаплант. — Это непорядочно и нечестно — очевидно, я не такого жду от компании, услугами которой пользуюсь. Несправедливо это и по отношению к работникам. Мне не нравится, что труд используют для обмана».

Эта этическая дилемма также возникает, когда речь идёт о системах ИИ, имитирующих поведение человека. Недавний пример — голосовой помощник Google Duplex, способный самостоятельно забронировать столик в ресторане.

Поначалу разработку встретили негативно, и Google заявила, что вскоре сервис оснастят функцией самоидентификации — беседуя с людьми по телефону, Duplex предупредит их: они разговаривают с роботом. «Даже демо-версия заставляет почувствовать себя немного обманутым», — признаётся Дарси.

И хотя бронирование столика кажется безобидным делом, эта же технология может использоваться во вред. Что произойдёт, если, скажем, кто-то сделает звонок голосом политика? «Люди и без того опасаются искусственного интеллекта, отсутствие прозрачности только навредит продуктивному диалогу», — убеждена Дарси.

1111
12 комментариев
Комментарий удалён модератором

на ЛСД ))))

5
Ответить

Скоро выяснится, что альфа го - это пять тысяч китайцев в деревне.

8
Ответить

люди, как правило, охотнее делятся чувствами, думая, что общаются с машиной. Что это за бред?!

1
Ответить

"Бред" - это "исследование Университета Южной Калифорнии". Джозеф Вейценбаум, создатель первого чат-бота "Элиза" (1966 год, на минуточку) рассказывал, что его персонал тут же начал обсуждать с "ней" свои настоящие проблемы, а от него требовать, чтобы распечатки удалял. Он-то создавал пародию на психолога лишь для того, чтобы возможности языка LISP показать. Так что факт давно известный.

6
Ответить

это не бред, это перевод такой. в оригинале "People are very open to feeling connected to things that aren't people,"

1
Ответить

Вот, собственно, часть оригинала: Research has shown that people tend to disclose more when they think they are talking to a machine, rather than a person, because of the stigma associated with seeking help for one’s mental health.

1
Ответить