ИИ агенты не так хороши, как заявляется

Это вывод из свежего отчета Института политики и стратегии ИИ, который выявил критические разрывы между громкими заявлениями лидеров рынка и фактическими возможностями существующих ИИ-агентов.

🔥 Еще больше интересного в моем канале продуктовые штучки

Лидеры индустрии (например, главы Meta, Salesforce, OpenAI) обещают массовое внедрение агентов и радикальные изменения на рынке труда уже в ближайшие годы, однако реальные технологические достижения пока отстают от этих прогнозов.

Прогресс в разработке агентов идет быстро, но вопросы их безопасности, надежности и социального воздействия остаются нерешенными.

Основные выводы

ИИ-агенты - это системы, которые могут автономно достигать целей в мире с минимальными указаниями от человека.

Несмотря на амбициозные заявления о скором появлении миллиардов таких агентов, современные системы пока ограничены: они успешно справляются с короткими, рутинными задачами, но значительно уступают людям в сложных, многошаговых и длительных заданиях.

На реальных бенчмарках агенты показывают низкие результаты: например, при решении задач, требующих более часа работы человека, успешность агентов падает до 0–20%

Бенчмарки ИИ агентов. <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fwww.iaps.ai%2Fresearch%2Fai-agent-governance&postId=1953919" rel="nofollow noreferrer noopener" target="_blank">Источник</a>
Бенчмарки ИИ агентов. Источник

Главные проблемы - низкая надежность, ограниченные способности к рассуждению и использованию инструментов, склонность к ошибкам и «галлюцинациям» (выдача неправдоподобных или ошибочных решений). Даже в сферах, где агенты уже внедряются (например, поддержка клиентов, кибербезопасность, автоматизация кода), они пока могут заменить только часть человеческой работы и требуют постоянного контроля.

Массовое внедрение агентов может привести к новым видам рисков: усилению киберугроз, потере контроля над автономными системами, усилению неравенства и концентрации власти, а также к трудностям с прозрачностью и ответственностью за действия агентов. Существуют опасения, что агенты могут быть использованы для вредоносных целей (автоматизация атак, распространение дезинформации), а также что из-за их автономности и скорости действий традиционные механизмы регулирования окажутся неэффективными.

Что с этим делать?

Несмотря на значительный прогресс, возможности современных ИИ-агентов пока далеки от обещаний индустрии.

Для безопасного и эффективного внедрения таких систем требуется не только дальнейшее технологическое развитие, но и создание новых институциональных, правовых и этических механизмов управления

Подчеркивается необходимость разработки новых подходов к управлению и регулированию ИИ-агентов: создание систем идентификации, логирования активности, механизмов аварийного отключения, а также внедрение стандартов прозрачности и ответственности. Особое внимание уделяется вопросам справедливого распределения выгод от внедрения ИИ и предотвращения усиления социального неравенства

Пожалуйста, поддержите меня, поставьте лайк! 🙏

5
2 комментария