in

Un robot à quatre pattes traverse des terrains difficiles grâce à une vision 3D améliorée

Des chercheurs dirigés par l’Université de Californie à San Diego ont développé un nouveau modèle qui entraîne des robots à quatre pattes à voir additionally clairement en 3D. L’avancée a permis à un robot de traverser facilement et de manière autonome des terrains difficiles – y compris des escaliers, des sols rocheux et des chemins remplis d’espaces – tout en franchissant les road blocks sur son chemin.

Les chercheurs présenteront leurs travaux lors de la conférence 2023 sur la eyesight par ordinateur et la reconnaissance de formes (CVPR), qui se tiendra du 18 au 22 juin à Vancouver, au Canada.

“En fournissant au robot une meilleure compréhension de son environnement en 3D, il peut être déployé dans des environnements in addition complexes du monde réel”, a déclaré l’auteur principal de l’étude Xiaolong Wang, professeur de génie électrique et informatique à l’UC San Diego Jacobs Faculty. d’Ingénierie.

Le robotic est équipé d’une caméra de profondeur orientée vers l’avant sur sa tête. La caméra est inclinée vers le bas à un angle qui lui donne une bonne vue à la fois de la scène devant elle et du terrain en dessous.

Pour améliorer la perception 3D du robotic, les chercheurs ont développé un modèle qui prend d’abord des images 2D de la caméra et les traduit dans l’espace 3D. Pour ce faire, il take a look at une courte séquence vidéo composée de l’image actuelle et de quelques images précédentes, puis extrait des informations 3D de chaque image 2D. Cela inclut des informations sur les mouvements des jambes du robotic tels que l’angle de l’articulation, la vitesse de l’articulation et la length par rapport au sol. Le modèle assess les informations des visuals précédentes avec les informations de l’image actuelle pour estimer la transformation 3D entre le passé et le présent.

Le modèle fusionne toutes ces informations afin qu’il puisse utiliser l’image actuelle pour synthétiser les photos précédentes. Au fur et à mesure que le robot se déplace, le modèle vérifie les images synthétisées par rapport aux images que la caméra a déjà capturées. S’ils correspondent bien, le modèle sait qu’il a appris la représentation correcte de la scène 3D. Sinon, il apporte des corrections jusqu’à ce qu’il réussisse.

La représentation 3D est utilisée pour contrôler le mouvement du robotic. En synthétisant les informations visuelles du passé, le robot est capable de se memento de ce qu’il a vu, ainsi que des actions que ses jambes ont effectuées auparavant, et d’utiliser cette mémoire pour informer ses prochains mouvements.

“Notre approche permet au robotic de construire une mémoire à courtroom terme de son environnement 3D afin qu’il puisse mieux agir”, a déclaré Wang.

La nouvelle étude s’appuie sur les travaux antérieurs de l’équipe, où les chercheurs ont développé des algorithmes qui combinent la eyesight par ordinateur avec la proprioception – qui implique le sens du mouvement, de la route, de la vitesse, de l’emplacement et du toucher – pour permettre à un robot à quatre pattes de marcher et de courir sur terrain accidenté tout en évitant les hurdles. L’avancée ici est qu’en améliorant la perception 3D du robot (et en la combinant avec la proprioception), les chercheurs montrent que le robotic peut traverser des terrains moreover difficiles qu’auparavant.

“Ce qui est excitant, c’est que nous avons développé un modèle special qui peut gérer différents sorts d’environnements difficiles”, a déclaré Wang. “C’est parce que nous avons créé une meilleure compréhension de l’environnement 3D qui rend le robotic moreover polyvalent dans différents scénarios.”

L’approche a cependant ses limites. Wang observe que leur modèle actuel ne guideline pas le robot vers un objectif ou une vacation spot spécifique. Lorsqu’il est déployé, le robotic prend simplement une trajectoire rectiligne et s’il voit un impediment, il l’évite en s’éloignant par une autre trajectoire rectiligne. “Le robot ne contrôle pas exactement où il va”, a-t-il déclaré. “Dans les travaux futurs, nous aimerions inclure davantage de tactics de planification et compléter le pipeline de navigation.”

Vidéo  : https://youtu.be/vJdt610GSGk

Titre de l’article  : “Mémoire volumétrique neurale pour le contrôle visuel de la locomotion.” Les co-auteurs incluent Ruihan Yang, UC San Diego, et Ge Yang, Massachusetts Institute of Technological know-how.

Ce travail a été soutenu en partie par la Nationwide Science Basis (CCF-2112665, IIS-2240014, 1730158 et ACI-1541349), un Amazon Investigate Award et des dons de Qualcomm.