Как мы сделали навигацию для мобильных роботов

Всем привет! Мы в PureMind разрабатываем решения на основе алгоритмов машинного обучения и компьютерного зрения. Занимаемся этим с 2016 года. Лучше всего умеем делать такие решения на стыке с оборудованием, т.е. когда сложные алгоритмы вычислять очень надо, а большой сервер использовать невозможно (мобильные роботы, дроны, различные “умные”, носимые девайсы). Один из наших проектов - создание системы автономной навигации для мобильных роботов. Это такое ПО, которое позволяет роботам или другому оборудованию перемещаться самостоятельно. Как автономные машины, только скорости поменьше и условия другие.

Идея

Все началось с задачи одного из наших клиентов. Они запускали производство поломоечных машин. Такие ездят по торговым центрам, стадионам, в метро. А за ними ходят операторы, чтобы направлять куда двигаться дальше. Пока она может перемещаться только с помощью человека, а нужно, чтобы человека не отвлекала, а ездила сама. Поскольку все эти пространства предназначены для людей и их оттуда не выгонишь, а весит такая машина немало - работать она должна безопасно.

Как мы сделали навигацию для мобильных роботов

Реализация

Изучив возможные подходы, выбор пал на использование камеры для ориентации робота в пространстве. Для вычисления алгоритмов навигации, распознавания и вычисления расстояний до объектов приняли решение использовать мобильный GPU вычислитель от NVIDIA. Хотя конечно можно и на базе других платформ.

Как мы сделали навигацию для мобильных роботов

Для того, чтобы быстро обучать алгоритмы и легко и дешево их тестировать - сначала делаем реализацию на виртуальном роботе, а только после отладки и тестирования переносим на физического робота и тестируем на нем. Также для отладки выбрали специальную робото-платформу, чтобы на начальном этапе не заморачиваться самим с проектированием железной части робота.

Что уже готово

Что продукт уже умеет прямо сейчас:

  • строить карту помещения, понимать где робот на этой карте сейчас находится;
  • загружать заранее заготовленные карты, чтобы можно было легко перемещать робота из одного здания в другое и робот сразу мог в нем ориентироваться;
  • строить маршрут до нужной точки и перестраивать его, если появились препятствия на пути;
  • понимать по одной камере расстояния до объектов;
  • самостоятельно принимать решения о корректировке маршрута или ожидании.

Дополнительно есть интерфейс, который позволяет ставить роботу задачу, в какую точку он должен самостоятельно добраться.

Что дальше

Нам видится логичным превращать это все в коробочный продукт, который уже продавать разработчикам роботов. Вроде выглядит удобно - готовое решение, не нужно ничего разрабатывать самим, можно быстро запустить на своем роботе и быстро начать его продавать (а не тратить год-другой на разработку). Но пообщавшись с рынком выяснилось, что разработчиков мобильных роботов можно по пальцам пересчитать, да и продают они по десятку роботов в год. К тому же “железячные” проекты очень ресурсоемки и делаются с привлечением денег инвесторов, которые очень хотят всю интеллектуальную собственность иметь внутри проекта.

Хотелось бы услышать ваше мнение, стоит ли развивать это решение до уровня скачал-настроил-запустил? Будем рады вашим комментариям!

P.S. на самой поломоечной машине решение еще не запущено, ждем от заказчика оборудование.

P.P.S. Если интересны подробности - пишите в комментариях, отдельно расскажу почему выбрали тот или иной подход к решению каждой задачи и какие есть нюансы.

55
7 комментариев

Я могу ошибаться, но я ожидал от мобильного решения большей мобильности. Яблокофон умеет также простраивать пространство вокруг себя, кроме ARkit существуют и другие движки (ARcore, Kudan..), хорошо работающие как с одной так и стерео-камерами. Написав свой Slam алгоритм можно ужать робота сначала до размеров raspberry, а затем еще раз в 10, разведя свою плату. Один из новых примеров - Oculus Quest, Hololens, MagicLeap - они также ориентируются в облаке меток, как новом так и запомненном, но при этом вычислительная часть занимает размеры напёрстка, включая простой 3.7В аккумулятор за 500р. Использование карт nvidia для этой цели не оправдывает себя, а также сильно ограничивает перспективы разработки.

Ответить

Павел, да, если запускать только SLAM - действительно этого будет достаточно. Нам же приходится помимо локализации решать одновременно еще огромное количество задач. Основные GPU ресурсы сжирают deep learning алгоритмы, которые обеспечивают измерение расстояний до объектов (это про безопасность, поскольку такие роботы могут весить более 100Кг и не смогут остановиться мгновенно) с одной камеры даже в статическом режиме. А также алгоритмы принятия решений, которые позволяют роботу принимать решение о корректировке маршрута или ожидании и т.п. Плюс ряд других задач. Но для ориентации в облаке точек вы правы - raspberry будет достаточно.

2
Ответить

Молодцы, что реализовали свой визуальный SLAM. Разумеется, интересны подробности :)
Думается, что как коробочное решение - могут быть трудности, так как для конечного робота данная система должна быть завязана на целевые задачи. Можно рассмотреть варианты лицензирования технологии, но как вы сами верно отметили пока с проектами мобильных роботов напряженка.

Ответить

Спасибо! Ищем параллельно и другие возможности применения, не только для роботов. Подробности тогда будем постепенно писать и добавлять)

Ответить

А есть почитать на русском, так сказать для чайников.

Ответить

Николай, постарались в видео как раз показать на простом примере как это работает. Расскажите про что рассказать подробнее - сделаю материал на эту тему.

Ответить

Идея хороша и реализация нетипична. Однако интересен финансовый аспект. К примеру, если глянем стоимость поломоечных машин разных производителей https://shop-avd.ru/polomoechnye-mashiny/ получим условный диапазон в 30к - 6кк руб. Насколько данная технология удорожит конечный продукт и будет ли это рентабельно?

Ответить