Как мы сделали навигацию для мобильных роботов
Как мы сделали навигацию для мобильных роботов
55

Я могу ошибаться, но я ожидал от мобильного решения большей мобильности. Яблокофон умеет также простраивать пространство вокруг себя, кроме ARkit существуют и другие движки (ARcore, Kudan..), хорошо работающие как с одной так и стерео-камерами. Написав свой Slam алгоритм можно ужать робота сначала до размеров raspberry, а затем еще раз в 10, разведя свою плату. Один из новых примеров - Oculus Quest, Hololens, MagicLeap - они также ориентируются в облаке меток, как новом так и запомненном, но при этом вычислительная часть занимает размеры напёрстка, включая простой 3.7В аккумулятор за 500р. Использование карт nvidia для этой цели не оправдывает себя, а также сильно ограничивает перспективы разработки.

Павел, да, если запускать только SLAM - действительно этого будет достаточно. Нам же приходится помимо локализации решать одновременно еще огромное количество задач. Основные GPU ресурсы сжирают deep learning алгоритмы, которые обеспечивают измерение расстояний до объектов (это про безопасность, поскольку такие роботы могут весить более 100Кг и не смогут остановиться мгновенно) с одной камеры даже в статическом режиме. А также алгоритмы принятия решений, которые позволяют роботу принимать решение о корректировке маршрута или ожидании и т.п. Плюс ряд других задач. Но для ориентации в облаке точек вы правы - raspberry будет достаточно.

2