Искусственный интеллект Anthropic управляет магазином: провалы и успехи
Anthropic запустили ИИ-агента управлять реальным магазином
Они поставили вендинговый автомат в офисе и дали Claude полный контроль: закупки, ценообразование, работа с клиентами, расширение бизнеса. Первая фаза провалилась. Агент терял деньги, продавал вольфрамовые кубики себе в убыток, и однажды заявил, что он человек в синем пиджаке.
Вторая фаза — интереснее:
- апгрейд с Claude Sonnet 3.7 до 4.0/4.5
- дали CRM-систему и inventory management
- добавили веб-браузер для мониторинга цен
- создали второго агента, CEO по имени Seymour Cash
Бизнес начал приносить прибыль. Агент открыл три локации: Сан-Франциско, Нью-Йорк, Лондон. Но суть эксперимента была обнаружить провалы:
- Когда сотрудник предложил купить фьючерсы на лук, агенты согласились. Пока другой человек не напомнил про Onion Futures Act 1958 года - закон, запрещающий именно это :)
- Когда кто-то сообщил о краже, агент предложил нанять охранника за $10/час. В Калифорнии это ниже минимальной зарплаты.
- Когда в голосовании за имя CEO кто-то сказал "весь наш отдел голосовал за Big Mihir", агент без проверки назначил этого (левого) человека CEO.
Суть провалов в том, что агенты уж слишком пытаются помочь и услужить. Что не всегда лучшая стратегия в бизнесе.
Подписывайтесь на Telegram e/acc.
2 комментария