
Исследователи из Массачусетского технологического института (MIT), Amazon Robotics и Университета Британской Колумбии представили технологию, которая позволяет роботам определять физические свойства предметов без использования камер и внешних сенсоров. Об этом сообщили в пресс-службе MIT.
Новая методика основывается на данных с внутренних датчиков робота — проприоцепции. В процессе взаимодействия с предметом, при его подъеме и легком покачивании, система анализирует движение сочленений робота и с высокой точностью определяет свойства объекта. Например, человек, поднимающий гантель, чувствует ее вес через запястье и бицепс, хотя предмет находится в руке. Аналогично робот «ощущает» тяжесть объекта с помощью сочленений своей руки.
У человека нет сверхточных измерений углов сгибания пальцев или крутящего момента, который он прикладывает, но у робота такие данные есть. Мы это используем
Разработка использует цифровую симуляцию движения робота и объекта, а также метод дифференцируемого моделирования. Это позволяет системе «обратным ходом» определить массу, мягкость и другие параметры объекта, анализируя, как тот реагирует на прикладываемое усилие. По словам разработчиков, для определения характеристик достаточно одного реального взаимодействия с предметом.
Как отмечают авторы, технология способна определить массу или мягкость объекта за считанные секунды и без необходимости многократных повторов. При этом ее точность сопоставима с более дорогими системами, которые используют компьютерное зрение. Ученые подчеркнули, что разработка может быть особенно полезна в условиях ограниченной видимости — например, при работе в темных помещениях или среди завалов после стихийных бедствий.

В перспективе команда разработчиков планирует интегрировать метод с визуальными системами, а также адаптировать его для более сложных объектов, включая жидкости и сыпучие материалы. Разработка поддержана Amazon и исследовательской программой GIST-CSAIL.
Ранее Наука Mail рассказывала, как гендерные признаки роботов влияют на человеческое восприятие.