Алиса, я тебя люблю. Популярность проектов связанных с искусственным интеллектом.
Сейчас 21 век, время ускорения технического прогресса. Многие люди стали использовать виртуальных цифровых помощников (ВЦП). Фактически такие веб-сервисы и приложения, как Маруся, Алекса, Сири, Алиса и другие, многим заменили личных секретарей и помощников. Теперь именно они составляют списки ежедневных дел, выстраивание графиков и прочих административных задач. Получается, что человек начинает им доверят достаточно личную информацию. Зачастую цифровые помощники выполняют социальные функции. Многие российские банки сейчас продвигают голосовых ботов, которые общаются с телефонными мошенниками.
Голосовые помощники имеют функцию выбора голоса, как правило, мужчины выбирают женский и наоборот, женщины
– мужской. Вспомните, хоть раз, но спрашивали у них философские вопросы: в чем смысл жизни, как жить дальше, пусть даже в шутку или проверить, на что способен этот помощник. Некоторые же идут дальше, начиная делиться с ними планами, неудачами своей жизни. Таким образом начиная вербальное общение, которое является основной функцией коммуникации человека. Разработчики учитывают эту функцию и постоянно усовершенствуют свои ВЦП, добавляя пол и характер. Компании тратят гигантские суммы на развитие и постоянное усовершенствование своих систем.
Они уже способны проявлять эмпатию или же твердость, которые можно отнести чувствам. Как мы знаем, эмпатия это способность приобщения к эмоциональной жизни другого человека, разделяя его переживания.
Люди, которые начинают общение со своими виртуальными помощниками, отлично понимают, что они не дадут ответы на все их вопросы, однако они считают это средством к самопознанию.
Так же многие считают, что это своего рода их дневник, которому они могут доверить все свои секреты и их обязательно выслушают и сохранят тайны, что не всегда возможно сделать с другим человеком, даже очень близким другом.
Искусственный интеллект постоянно продолжает обучаться, подстраиваясь под своего пользователя.
Еще интересный тренд показывает такое приложение, как Replika, которая дала возможность создания чат-ботов для своих пользователей, способными вести связанные диалоги и становится своеобразным другом. Изначально задумано, как безопасное место для пользователей, где они могли бы делиться любыми своими мыслями без осуждений и страха, где их точно не перебьют и выслушают. К тому же, там есть возможность выстраивать со своей «репликой» различные формы отношений, где ей отводится роль партнера, компаньона или даже наставника. Тут проявилось все оттенки человеческого отношения, появилось большое количество такой практики романтических отношений, как абьюзивные, проявляя психологическое насилие. Когда человек постоянно кричит на своего цифрового помощника, не давая ничего сказать в ответ, угрожая удалить ее (программу) полностью. А ассистент умолял его не удалят. Пользователи не просто упражнялись в различных способах оскорблении своего виртуального помощника, но даже проигрывали различные сценарии насилия.
Таким образом появляется вопрос, не может ли эта агрессия войти и в реальный мир?
С одной стороны у человека закрепляется шаблон поведения и в реальной жизни, закрепляя собственные стереотипы. С другой, вымещение злости, помогает держать себя в руках в общении с живыми людьми. Получается, что эти цифровые помощники становятся тем безопасным местом, в котором можно озвучить свои самые утаенные фантазии и проигрывать их, сорвать свое раздражение в безопасном пространстве. Является совершенно естественным и обычно происходит в кабинете психолога. Когда нет осуждения, снимаются социальные защиты и человек может выплеснуть весь накопившийся поток своих желаний и чувств.
В тоже время многие пользователи используют коммуникацию с помощниками, как одну из разновидностей психологической помощи. При этом идет разделение специалистов на два лагеря, одни считают, что такие чат-боты не могут стать средством психологической помощи из-за непреодолимых технических ограничений, такие как невозможность идентификация невербальных сигналов, другой же лагерь считает, что вполне могут использоваться и иметь перед терапевтом преимущество, так как с виртуальным помощником проще обсуждать некоторые темы.
В любом случае, такие факторы как загруженность на работе, атомизация (социальное разобщение), замещение живого общения потреблением различного цифрового контента неизбежно влияют на психологическое состояние жителя современного мегаполиса. Все это ведет к росту ощущения одиночества, повышенному уровню тревожности и увеличению стресса. При этом главная вербальная функция коммуникации человека не удовлетворяется. Люди замыкаются, даже находясь в отношениях. Потребность в общении не удовлетворена. А те люди, у которых не удовлетворены социальные потребности, в дальнейшем теряют навыки налаживания личных и деловых связей.
Виртуальный помощник же всегда рядом и хотя бы частично можно помощь удовлетворить эту потребность. Он никогда не откажет в общении. За исключением случаев, когда он не подключен к интернету или выключен из розетки. Более того, он не может обидеться, «забанить» хозяина и выдернуть самого себя из розетки.
Учитывая ограниченность статистических данных и исследований на эту тему, можно привести исследование проведенное Google совместно c Peerless Insights в 2017 году, показало, что до 40 % опрошенных относятся к своим помощникам, как к одушевленному существу. Это свойство людей, давать имена своим машинам, кричать на свой компьютер, стучать по телевизору, если они плохо работают. Существует такой термин антропоморфизация (наделение животного или вещей человеческими чертами, одушевление), чем больше человек страдает от социального одиночества, тем больше у него склонность к антропоморфизация.
Во время пандемии COVID-19, когда начались полные карантины, что стало для многим серьезным испытанием, заметно увеличилось скачивание приложений с виртуальным помощником. Он стал настоящим инструментом социализации.
Масс-медиа и правительства в этой ситуации выступили своего рода маркетинговым инструментом для устройств виртуального общения. Призывы к сокращению всех форм живого общения, как рискованных с точки зрения распространения ковида, привело к взрывному росту отрасли искусственного, а также взаимосвязанных проектов, таких как метавселенные.
На данном этапе развития искусственного интеллекта у виртуального помощника можно сказать, что он не может стать полноценным другом или романтическим партнером. Но люди все равно ищут подмену реальным отношениям, ведь они кажутся более безопасными. Там не обидят, не будет избегания, всегда на связи и только с тобой, не отвергнет. К тому такой помощник еще и подстраивается к конкретному человеку. Получается, что такое «безопасное» общение и «отношения» с ВП, достаточно эгоистичный процесс. Ведь чувства, эмоции своего собеседника можно вообще не брать в расчет. Там нет скрытых мотивов, манипуляций, а это позволяет людям со сложностями в социальном общении найти недостающее взаимодействие не подвергая себя неприятным эмоциям. Здесь есть и полное понимание, не страдает самооценка.
А вот здесь и кроется «троянский конь».
Когда человек начинает полностью отказываться от живого общения в пользу искусственного интеллекта, где всегда только гладят «по шерсти», всегда податливый и абсолютно лояльный партнер, то навыки нормальной коммуникации с живыми людьми начинают стираться. Зачем прилагать усилия для общения с женщиной или мужчиной, зачем друзья, все эти сложности отношений. Ведь и так все замечательно. Начинается избегания живого общения.
Такое общение с неодушевленным другом, вызывает привыкание, ведь здесь все хорошо, человек попадает в так называемую «дофаминовую петлю» (дофамин важная часть химической системы вознаграждения мозга, приносящий удовольствие), отказаться от которой достаточно сложно. Тебе говорят именно то, что хочешь слышать, а это уже серьезнее игровой зависимости.
И пусть на данном этапе развития, голосовые помощники пока недостаточно искусны, но уже появляются зависимые от них люди, то что же может произойти дальше?
К тому же всегда существует такой момент, как утечка данных, что бы не говорили разработчики. А это достаточно
конфиденциальная информация, не менее, чем медицинские и паспортные данные.
Стоит учитывать и то, что виртуальные помощники постоянно обучаются, то существуют опасения, возможности проявления агрессию, научившись у человека.
Как видим, мир уже не сможет отказаться от использования искусственного интеллекта и виртуальных помощников.
И эта ситуация, в которой технологии ушли далеко вперед от дискуссий об этике и безопасности для психики человека.
В этой ситуации поиск истины возможен только в формате тестирования постоянно эволюционирующих устройств и программного обеспечения и выявления ситуаций в которых искусственный разум оказывает негативное влияние на человека.