Число Данбара для AI-агентов: сколько "подчинённых" выдержит человек
Тут поймал себя на странном ощущении: я работаю с несколькими coding-агентами в разных репозиториях - и прямо чувствую, как я становлюсь узким местом, как мозг разрывается. Нечто подобное было на вот этом хакатоне
Мой товарищ - Миша - очень любит концепт "число Данбара" и мы разговорились, а будет ли нечто подобное и для людей с агентами?
Для тех, кто не в курсе: число Данбара - это концепт из антропологии/соцпсихологии, что у человека есть когнитивный предел на количество устойчивых социальных связей, которые он может поддерживать (часто называют число ~150), плюс слои близости (условно 5/15/50/150). Суть не в магии цифры, а в идее: взаимодействия и поддержание контекста масштабируются плохо.
Ну так вот, можно ли такое же перенести во взаимодействие человека и агента? Не в смысле “отношений с агентами”, конечно (хотя и это может будет?!), а в смысле человеческой способности контролировать и ревьюить. Даже если агент пишет код в 10x быстрее, финальное "окей, это можно мерджить/деплоить" все равно часто хочет дать человек. Иногда по рациональным причинам (риски, ответственность), иногда по иррациональным ("мне спокойнее, когда я посмотрел").
Если упростить, получается грубая формула:
- у человека есть ограниченный бюджет внимания T (минут в день на контроль),
- каждый агент создаёт нагрузку r (сколько минут в день нужно на ревью, разбор ошибок, синхронизацию),
- тогда максимум агентов примерно N ≈ T / r.
И главное: r очень разное по доменам. Условно, управлять 7 coding-агентами ≠ управлять 7 голосовыми агентами колл-центра. Там, где ошибка дорогая и "проверка смысла" сложнее "проверки механики", человеческий контроль становится жёстким ограничением. А там, где можно поставить метрики, автоматические проверки и дешево откатить последствия - один человек сможет "вести караван" из намного большего числа агентов.
Отсюда мысль: с ростом агентности в компаниях появится новая прикладная наука, очень похожая на тестирование AI продуктов, но с разбивкой по отраслям (в том числе с расчетом этого human-to-agent ratio). И ключ к масштабированию будет не "нанять больше людей для ревью", а снижать r за счет:
- guardrails и детерминированные проверки,
- самопроверки/кроссчеки у самих агентов,
- мониторинг качества в проде,
- переход от "ревью всего" к "ревью по триггерам + выборочная проверка"
М? что думаете?
Подписывайтесь на Telegram EDU.