ИИ не просто помощник, а влиятельный член команды

Откуда такой громкий вывод, спросите вы? Из исследования, которое показало, что ИИ в командной работе — это не просто инструмент, а активный участник, который влияет на то, как люди общаются, что они замечают и как они взаимодействуют друг с другом.

ИИ создает «социальное силовое поле», влияя на когнитивное выравнивание в группах. Источник
ИИ создает «социальное силовое поле», влияя на когнитивное выравнивание в группах. Источник

Также выяснили, что эффект сохраняется даже после ухода ИИ и может как помогать согласованию, так и вредить разнообразию и естественным командным процессам. Про методику и авторов тут

🔥 Еще больше интересного в моем канале продуктовые штучки

Основные находки исследования

Люди начинают говорить словами и оборотами, которые им «занёс» ИИ, то есть происходит языковое выравнивание, и это тянет за собой общий фокус внимания и схожие ментальные модели задачи.

Следы языка ИИ остаются и в последующем общении людей без ИИ: команды продолжают использовать его терминологию и рамки обсуждения.

Даже короткие, заранее записанные вставки ИИ заметно меняли слова и термины, которыми пользовались люди в ходе командного обсуждения, причём эффект фиксировался как статистически значимый.

Парадокс периферийных терминов: когда ИИ был «непомогающим», команды отвергали его формулировки для ключевых понятий, но охотнее заимствовали нейтральные слова для второстепенных элементов, снижая когнитивные издержки без ущерба стратегии.

ИИ надёжно «сеял» темы: сразу после реплики ассистента вероятность, что команда начнёт обсуждать названный аспект задачи, резко возрастала

Эффекты возникали даже когда участники заявляли невысокое доверие к ИИ: социально‑когнитивное влияние шло не только через «полезность», но и через сам факт присутствия и языка ИИ.

Тон имеет значение

Когда ИИ полезный и звучит «по‑человечески», его легче принять как «своего», растёт доверие и «мы‑эффект»; когда он бесполезный или «роботизированный», коммуникация может ломаться, а сплочённость падать или перестраиваться без ИИ.

«Человеческий» голос и полезность подсказок усиливали принятие ИИ как «своего» члена команды: участники чаще говорили «мы», оценивали ИИ как умнее и надёжнее и сильнее выравнивали язык с его терминами.

А вот «человечный» голос при бесполезных подсказках ломал выравнивание: команды хуже сходились в ментальных моделях и реже говорили «мы», как будто мешающий участник оставался «внутри» команды и путал ориентиры.

Роботизированный голос + «непомогающие» подсказки парадоксально сплачивали людей между собой: участников легче было мысленно вынести ИИ «за скобки», и внутри человеческой подгруппы росла когезия и частота местоимений.

Какие выводы?

ИИ действует как «социальное силовое поле»: меняет то, как люди называют вещи, на что смотрят вместе и как ощущают себя командой, причём эффекты многоуровневые и стойкие.

Это палка о двух концах: ускоряет согласование и координацию, но может уводить от естественных процессов и сужать когнитивное разнообразие, повышая одинаковость мышления.

Практические рекомендации

1) Проектировать ИИ под команды: прозрачные намерения, объяснимость, управляемость влияния на разговор и внимание, а не только «качество ответов».

2) Настраивать «голос» и подачу: тёплый, понятный, полезный ИИ легче становится «своим», но важно не давить единообразием — оставляйте пространство для альтернативной терминологии и точек зрения.

3) Внедрять «ограничители выравнивания»: периодические «диссонанс‑промпты», ротация формулировок, явные роли адвоката дьявола и чек‑листы на разнообразие вариантов.

4) Делать влияние видимым: пометки «это термин/рамка от ИИ», логи языковых подсказок, режимы «поддержать разнообразие» vs «свести к единому языку» по фазе задачи.

5) Обучать команды метанавыкам: замечать, когда ИИ задаёт язык и повестку, и осознанно решать — принимать это или переопределять под цели команды.

Методика исследования и авторы

Исследование провели ученые из Университета Норт-Истон (США). Они провели два эксперимента с командами и с отдельными участниками.

В первом — 20 команд по 3-4 человека решали сложную головоломку, а голосовой ИИ-ассистент в разных вариантах (помогал или мешал, звучал по-человечески или роботообразно) давал подсказки, чтобы изучить влияние ИИ на язык, внимание и взаимопонимание команд.

Во втором — 97 человек работали с текстовым чат-ботом ChatGPT 4o, инструкция ИИ менялась между тёплыми и формальными ответами, чтобы проверить, как слова ИИ «запечатываются» в последующих живых разговорах пользователей. Анализировали лингвистическое выравнивание, фокус внимания, совпадения слов и социальные маркеры, используя статистические методы.

Пожалуйста, поддержите меня, поставьте лайк! 🙏

3
1 комментарий