Зачем ИИ учат понимать эмоции: взгляд учителя

Вы когда-нибудь задумывались, почему гиганты вроде Amazon, Microsoft и Google так активно вкладываются в технологии распознавания эмоций? Если нет, то пора начать. Потому что, когда речь заходит о том, что искусственный интеллект начинает "чувствовать", я, простая женщина Людмила, вижу не технологии будущего, а источник бесконечных тревог.

"Эмоции"? Не смешите меня

Давайте начнём с базового вопроса: зачем машине понимать наши эмоции? Ответ, конечно, звучит красиво: улучшение пользовательского опыта, помощь в психическом здоровье, адаптивное обучение. Но разве не понятно, что за этим стоит гораздо больше?

Когда мне говорят, что ИИ учат "распознавать разочарование", я вижу, как нас готовят к эпохе полного контроля. Сегодня они определяют, что вы раздражены, а завтра — вы неугодны. Ведь если машина понимает ваши эмоции, значит, она может и манипулировать вами.

"Помощь" в психическом здоровье? Или подрыв доверия?

Взять тот же Woebot Health — звучит как спасение для тех, кто боится или стесняется обратиться к живому психологу. Но кто гарантирует, что эта "помощь" не используется для создания огромной базы данных о ваших самых личных переживаниях?

Или Disney Research: они хотят знать, смеётесь вы или грустите во время просмотра их фильмов. Но зачем? Чтобы больше продавать или чтобы глубже понимать, как зацепить ваши слабости?

Образование — не обучение, а манипуляция

Идея адаптивного подхода к ученикам кажется полезной, пока вы не задумываетесь: а что дальше? Если ИИ может понять, когда ребёнок скучает или запутался, значит, он может контролировать процесс обучения в нужную сторону. Вопрос только в том, чьи "нужды" будут учитываться: ребёнка, учителя или корпорации, которая поставила этот ИИ?

Этика? Ещё одна красивая обёртка

Сторонники технологии говорят: распознавание эмоций сделает системы более "этичными". Но как может быть этичной машина, которой управляют крупные корпорации?

Инклюзия? Этика? Это просто слова, которыми нас кормят, чтобы отвлечь от настоящей проблемы: если ИИ знает наши эмоции, он может использовать их против нас.

Безопасность или полный надзор?

Особенно страшит, как ИИ внедряется в системы безопасности. Они обещают предотвращать конфликты, определять агрессию в толпе. Но давайте будем честны: если кто-то захочет использовать эту технологию для контроля над населением, его ничто не остановит.

Сегодня ИИ анализирует, кто раздражён. Завтра — кто зол на власть. А послезавтра вы уже в списках "потенциально опасных".

Кто управляет эмоциями?

Машины учатся распознавать и использовать эмоции, но мы, люди, становимся всё более зависимыми от их "советов".

Мы отдаём свои данные, даже не задумываясь. Мы открываем свои чувства, думая, что это всего лишь алгоритм. Но алгоритм — это не нейтральный наблюдатель. За ним стоят те, кто хочет знать о нас всё.

Что мы теряем?

Когда мы учим ИИ понимать наши эмоции, мы отдаём ему самое человеческое, что у нас есть. Мы превращаем свои чувства в данные, которые можно анализировать, продавать и использовать.

Я не против технологий. Но я против того, чтобы они забирали у нас наше личное пространство, нашу индивидуальность.

И вот мой главный вопрос: если машина понимает наши эмоции, значит, она может ими управлять. А если машина управляет нашими эмоциями, где остаётся место для нас, людей?

А вы как думаете? Нужны ли нам такие технологии? Или это путь в мир, где чувства — это просто цифры на экране?

Зачем ИИ учат понимать эмоции: взгляд учителя
реклама
разместить
Начать дискуссию