in

De nouveaux algorithmes aident les robots à quatre pattes à courir dans la nature

Une équipe dirigée par l’Université de Californie à San Diego a développé un nouveau système d’algorithmes qui permet aux robots à quatre pattes de marcher et de courir sur des terrains difficiles tout en évitant les obstacles statiques et mobiles.

Lors des assessments, le système a guidé un robot pour manœuvrer de manière autonome et rapide sur des surfaces sablonneuses, du gravier, de l’herbe et des collines de terre cahoteuses couvertes de branches et de feuilles mortes sans heurter des poteaux, des arbres, des arbustes, des rochers, des bancs ou des personnes. Le robotic a également navigué dans un espace de bureau occupé sans heurter des boîtes, des bureaux ou des chaises.

Ces travaux rapprochent les chercheurs de la construction de robots capables d’effectuer des missions de recherche et de sauvetage ou de collecter des informations dans des endroits trop dangereux ou difficiles pour les humains.

L’équipe présentera ses travaux lors de la Conférence internationale 2022 sur les robots et systèmes intelligents (IROS), qui se tiendra du 23 au 27 octobre à Kyoto, au Japon.

Le système offre à un robot à pattes furthermore de polyvalence en raison de la manière dont il merge le sens de la vue du robot avec une autre modalité de détection appelée proprioception, qui implique le sens du mouvement, la course, la vitesse, l’emplacement et le toucher du robot – dans ce cas, la sensation de le sol sous ses pieds.

Actuellement, la plupart des approches pour entraîner des robots à pattes à marcher et à naviguer reposent soit sur la proprioception, soit sur la vision, mais pas les deux en même temps, a déclaré l’auteur principal de l’étude Xiaolong Wang, professeur de génie électrique et informatique à l’UC San Diego Jacobs Faculty of Engineering..

“Dans un cas, c’est comme entraîner un robot aveugle à marcher simplement en touchant et en sentant le sol. Et dans l’autre, le robotic planifie ses mouvements de jambes en se basant uniquement sur la vue. Il n’apprend pas deux choses en même temps”, a déclaré Wang. “Dans notre travail, nous combinons la proprioception avec la vision par ordinateur pour permettre à un robot à pattes de se déplacer efficacement et en douceur – tout en évitant les road blocks – dans une variété d’environnements difficiles, pas seulement bien définis.”

Le système que Wang et son équipe ont développé utilise un ensemble spécial d’algorithmes pour fusionner les données des visuals en temps réel prises par une caméra de profondeur sur la tête du robotic avec les données des capteurs sur les jambes du robot. Ce n’était pas une tâche uncomplicated. “Le problème est que pendant le fonctionnement dans le monde réel, il y a parfois un léger retard dans la réception des images de la caméra”, a expliqué Wang, “de sorte que les données des deux modalités de détection différentes n’arrivent pas toujours en même temps.”

La answer de l’équipe consistait à simuler cette inadéquation en randomisant les deux ensembles d’entrées – une procedure que les chercheurs appellent la randomisation multimodale des délais. Les entrées fusionnées et randomisées ont ensuite été utilisées pour previous une politique d’apprentissage par renforcement de bout en bout. Cette approche a aidé le robotic à prendre des décisions rapidement pendant la navigation et à anticiper les changements de son environnement à l’avance, afin qu’il puisse se déplacer et éviter les obstacles furthermore rapidement sur différents varieties de terrains sans l’aide d’un opérateur humain.

Pour aller de l’avant, Wang et son équipe travaillent à rendre les robots à pattes additionally polyvalents afin qu’ils puissent conquérir des terrains encore furthermore difficiles. “En ce moment, nous pouvons entraîner un robotic à faire des mouvements simples comme marcher, courir et éviter les obstacles. Nos prochains objectifs sont de permettre à un robotic de monter et descendre des escaliers, de marcher sur des pierres, de changer de route et de sauter par-dessus des hurdles.”

Vidéo  : https://youtu.be/GKbTklHrq60

L’équipe a publié son code en ligne sur : https://github.com/Mehooz/vision4leg.