Anthropic выпустила модель ИИ, которая может управлять нашим компьютером: просматривать экран, перемещать курсор, нажимать кнопки, вводить текст.

От автора Telegram-канала «Аналитика и Growth mind-set».

Думаю, что всех уже раздражают новости про ИИ, но я не смогла пропустить эту.

ИИ теперь может выполнять действия в интерфейсе нашего компьютера — просматривать экран, перемещать курсор, нажимать кнопки, вводить текст.

Anthropic выпустила обновленные модели Claude 3.5 Sonnet и Claude 3.5 Haiku, которые выводят ИИ на новый уровень.

Это мощный инструмент для автоматизации задач, особенно в программировании и аналитике.

В примерах на ютьюб-канале Anthropic, Claude делает следующие задачи:

— Заполняет форму в одной вкладке, используя данные из google таблицы в другой

— Находит место для встречи заката, рассчитывает время поездки и бронирует ее в календаре

— Разрабатывает сайт, сохраняет файл и затем фиксирует баги уже на компьютере

Asana, Canva, Cognition, DoorDash, Replit и The Browser Company уже начали использовать эту функцию, выполняя задачи, требующие десятков, а иногда и сотен шагов для завершения.

Использовать бета-версию функции можно через Anthropic API, Amazon Bedrock и Vertex AI от Google Cloud.

Однако, как утверждают в Anthropic, сейчас способность Claude использовать компьютер далека от идеала. Некоторые действия (прокрутка, перетаскивание, увеличение) вызывают сложности. Однако, в ближайшие месяцы ожидается быстрое совершенствование модели.

—————————-

Наконец можно наслаждаться утренним кофе, пока ИИ выполняет рутинные задачи😔?

В ближайшее время протестирую эту функцию. Есть те, кто уже пробовал?

Другие ресурсы на канале:

Начать дискуссию