Голосовые роботы. Как их видят те, кто их разрабатывает и продает бизнесу

Директор ИИ-продуктов «Mail.ru Цифровые технологии» Светлана Архипкина — о том, как понять, что вам звонит робот, какие законодательные и этические проблемы сопровождают развитие искусственного интеллекта и смогут ли компьютеры стать умнее людей.

Светлана Архипкина, директор ИИ-продуктов «Mail.ru Цифровые технологии»
Светлана Архипкина, директор ИИ-продуктов «Mail.ru Цифровые технологии»

О том, как раскусить робота

Андрей Байкалов: Добрый день, друзья, вы слушаете очередной выпуск подкаста «Ценная инфа». Продолжаем наш разговор о голосовых роботах, начатый на прошлой неделе. В прошлом выпуске мы говорили о них с юридической точки зрения, а сегодня будем говорить о роботах как о программных комплексах. Гость выпуска — Светлана Архипкина, директор ИИ-продуктов «Mail.ru Цифровые технологии». Что же такое программные роботы? Как это видят обычные люди, программисты и бизнесмены?

Светлана Архипкина: С обывательской точки зрения все просто. Все мы напичканы масс-маркетом, киноиндустрией, книгами про фантастическое будущее, про то, что роботы либо захватят мир, либо, наоборот, будут нам помогать и заменят нас на всех механистических операциях. А мы будем сидеть на берегу океана и читать книги, сочинять стихи, писать картины и так далее. Для обывателя робот — это некая сущность, которая почему-то всегда имеет облик человека и выполняет присущие человеку функции.

А вот любой программист вам скажет, что чудес не бывает и что робот — это компьютерная программа. Кстати, я уже научилась задавать им так называемые провокационно-циклические вопросы, чтобы вытащить инсайт, что со мной разговаривает робот. Потому что, по большому счету, его легко обмануть.

С точки зрения бизнеса все опять же достаточно очевидно. Бизнес хочет видеть в любой технологии, начиная от механистической и заканчивая интеллектуальной, некие эффекты. Я как человек, который несет искусственный интеллект в бизнес, всегда в первую очередь должна ответить, в чем эффект от его применения. Где мы можем заработать, сократить расходы, получить какие-то немонетизируемые эффекты и так далее.

— Поделитесь, пожалуйста, примерами циклических вопросов, чтобы слушатели подкаста тоже могли задавать их и понимать, кто с нами разговаривает.

— Самый простой вопрос — «Вы человек или робот?» Потом можно вообще отойти от темы, по которой вам звонят. Наконец, можно зацикливать робота на какие-то вопросы. Например, сказать, что вы его не поняли, спросить, почему вопрос адресован именно вам, уверен ли он вообще, что вы — это вы. Такие немножечко парадоксальные вопросы, которые ломают алгоритм.

— К какому классу систем относятся голоса роботов, которые звонят и предлагают бесплатные услуги юристов, медицинские услуги и так далее?

— Это подкласс технологии искусственного интеллекта, который так и называется — «Распознавание и воспроизведение естественной речи». В него входит целый блок математических дисциплин. Это технологии синтеза речи — когда компьютерная программа способна воспринимать то, что вы ей сказали, как человек. Это технология Natural Language Processing (NLP), машинное обучение, те же нейросети.

На самом деле, технология эта очень непростая. Вы же не говорите алгоритмами — вы говорите с роботом на естественном языке. И робот вас понимает. Это сложная задача на стыке математики, программирования, лингвистики.

Я вам пример приведу. В лингвистике есть такой прием, как анафора — повторяющиеся слова, которые могут по смыслу относиться к разным объектам в предложении. «Мы отдали бананы обезьянам, потому что они были голодными». «Мы отдали бананы обезьянам, потому что они были перезрелыми». Вы как человек понимаете, что в первом случае «они» относится к обезьянам, а во втором случае «они» относится к бананам. И вот этому всему нужно научить компьютерную программу, она должна это понимать. Я уже не говорю о ситуациях, когда в ход идет серьезная отраслевая лексика, например нефтегазовой промышленности.

Сейчас есть очень интересные кейсы, когда роботы по голосу определяют, мужчина вы или женщина. В общем, масса всего интересного, и все это входит в класс голосовых роботов, голосовых ассистентов.

В феврале 2019 года в <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fwww.vaticannews.va%2Fru%2Fworld%2Fnews%2F2019-01%2Fv-vatikane-obsudyat-eticheskie-problemy-robototehniki.html&postId=231721" rel="nofollow noreferrer noopener" target="_blank">Ватикане</a> прошла конференция по робоэтике. В Русской православной церкви также ищут ответы на проблемы взаимоотношения роботов и человека.
В феврале 2019 года в Ватикане прошла конференция по робоэтике. В Русской православной церкви также ищут ответы на проблемы взаимоотношения роботов и человека.

О законодательном регулировании и этике

— Как в России и в других странах, скажем, в США и Китае, регулируются технологии Deep Voice, Deep Fake и им подобные? Иначе однажды робот подделает голос и получит за тебя кредит. Мне кажется, должно быть законодательное регулирование подобных вопросов.

— Абсолютно правильный вопрос. Вокруг этого сейчас целый пласт, я бы сказала, законодательного исследования. Законы на эту тему действительно рассматривают, исследуют, анализируют.

И я бы рассмотрела этот вопрос шире — не с точки зрения законодательства, а с точки зрения этических норм. Крупные корпорации, которые производят искусственный интеллект, уже давно задались вопросом этических норм и правил, которые идут немножко впереди законодательства. Каждая уважающая себя компания, которая использует либо производит технологии искусственного интеллекта, создает свои принципы — как пользоваться роботами, не вредя человеку. Это главный принцип, постулат искусственного интеллекта — он не должен вредить человеку. Мне сложно сказать сейчас про принятые законы. Я знаю, что многое собираются принимать.

— Можно ли робота привлечь к ответственности, скажем, за смерть человека?

— В том-то и дело, что такой вопрос находится на грани законодательства и этики. Роботы отличаются тем, что они не мотивированы правильными или неправильными причинами и вообще какими-либо причинами в принципе. Они не испытывают эмоций, и нет смысла приравнивать их к человеку. По аналогии — если будет война, вы же не будете возлагать ответственность на пулю за то, что она убила человека. И вот вокруг этого всего сейчас идут разговоры.

Что касается страновых особенностей, в США, например, только человеческие изобретения (если говорить о роботах и о человеке) могут быть защищены патентами. А в Европе законы, регулирующие интеллектуальную собственность, распространяются на любой юридический объект, в том числе на робота. Подходы пока везде разные, и законодательство в этом плане очень чувствительное. Его нормы возникают или меняются очень быстро. Я лично не готова сейчас сказать что-то конкретное — что такой-то закон что-то регулирует. Но, действительно, уже многое делается для этого.

— А как вы относитесь к тому, что голосовые помощники имитируют человека? Ведь программным путем можно сделать голос немного механическим, чтобы было понятно, что это робот. Но ведь не делают.

— Тут опять же все зависит от цели. С чем к нам сейчас приходят очень многие клиенты? Лет десять назад практически все внедрили чат-ботов или вот этих голосовых ботов, которые вам звонят, и они такие механические. Или некоторые кол-центры называются IVR-кол-центрами — когда вы звоните, вам механическим голосом говорят: «Если вы хотите узнать про свою карту, нажмите 1. Если вы хотите узнать про услуги, нажмите 2» и так далее.

— Это сильно раздражает, но это понятно.

— Совершенно верно. Сейчас все компании, которые хотят иметь на фронте общения с клиентом таких роботов, понимают, что общение с ними очень раздражает людей. Практически каждый человек, на которого попадает такой робот, либо кладет трубку, либо раздражается. Или, если вы звоните с конкретной проблемой и попадаете на такого робота, вы моментально требуете, чтобы вас соединили с оператором.

Все компании пришли к выводу, что механистические, не сильно наделенные интеллектом роботы не приносят большого эффекта. Более того, они еще и раздражают клиентов. И сейчас целый пласт запросов от рынка звучит так: «Наш робот должен быть умным, интеллектуальным и максимально очеловеченным». То есть компания хочет перевести рутину общения с клиентами на робота, но понимает, что с ним будут общаться только в том случае, если он будет очень похож на человека.

Вторая сторона этой медали, о которой вы говорите, — должен ли он вас предупреждать, что он робот? Опять же, это этическая сторона вопроса. Наверное, да, должен. Если к вам этот робот пришел с правильными, хорошими, мирными целями, то почему бы ему не предупредить, что вы общаетесь с ботом?

Если это не какая-то мошенническая схема, то я как человек, связанный с технологиями, даже восхищаюсь, когда общение с роботом приближено к естественному общению.

Вряд ли сейчас человечество хочет вернуться на шаг назад и общаться с механистическими роботами. Зачем мне такой робот и зачем он компании? Тогда оставьте уже всех операторов — пусть они разговаривают с людьми.

Рекламный постер к фильму "Она". Реж. Спайк Джонс, 2013 год
Рекламный постер к фильму "Она". Реж. Спайк Джонс, 2013 год

О сильном и слабом искусственном интеллекте

— Вопрос о цифровом помощнике из фильма «Она». Там один из главных героев — искусственный разум. Когда будет такой уровень общения между человеком и искусственным интеллектом, как в этом фильме? Дайте ваш прогноз: нам ждать 50, 70 лет или больше?

— Это моя любимая тема. В философии искусственного интеллекта есть такие понятия, как сильный и слабый искусственный интеллект. Теория сильного искусственного интеллекта предполагает, что компьютеры могут приобрести способность мыслить и осознавать себя как отдельную личность. Теория слабого искусственного интеллекта отвергает такую возможность. Если вы спросите лично меня, то я честно скажу как человек, который понимает, как создаются технологии искусственного интеллекта, что не очень верю в сильный искусственный интеллект.

Тут не надо воспринимать слова «сильный» и «слабый» буквально. Слабый — не потому что плохой, а потому что у него нет определенных функций, которые присущи, с нашей точки зрения, только человеку: мыслить и осознавать себя как отдельную личность.

Есть такой профессор Фьелланд — норвежский физик, философ. Он сказал, что принципиальной возможности создания сильного искусственного интеллекта нет, потому что компьютеры, у которых нет тела, нет детства, нет культурной практики, вообще не могут приобрести интеллект, — это тупик. И аргументировал он это тем, что вера в возможность реализации сильного искусственного интеллекта вредна, потому что, с одной стороны, вы переоцениваете технологические возможности искусственного интеллекта, а с другой — недооцениваете человеческий интеллект.

Возвращаясь к вашему вопросу, я считаю, что нужно рассматривать искусственный интеллект как очень практичную технологию, которая во многом помогает человечеству, но не стоит от нее ожидать полного воспроизведения человеческих функций. И так к этому и надо относиться.

Полную версию интервью слушайте в подкасте “Ценная инфа” (iOS, Android). Подписывайтесь на страницу подкаста в ВК. Становитесь резидентами подкаста на Патреоне.

22
Начать дискуссию