Un robot déplace un paquet de beurre autour d’une table du laboratoire de robotique et de vision intelligente de l’Université du Texas à Dallas. À chaque poussée, le robotic apprend à reconnaître l’objet grâce à un nouveau système développé par une équipe d’informaticiens de l’UT Dallas.
Le nouveau système permet au robotic de pousser des objets plusieurs fois jusqu’à ce qu’une séquence d’images soit collectée, ce qui permet au système de segmenter tous les objets de la séquence jusqu’à ce que le robotic reconnaisse les objets. Les approches précédentes reposaient sur une very simple poussée ou saisie par le robot pour « apprendre » l’objet.
L’équipe a présenté son document de recherche lors de la conférence Robotics: Science and Programs du 10 au 14 juillet à Daegu, en Corée du Sud. Les content articles de la conférence sont sélectionnés pour leur nouveauté, leur qualité system, leur significance, leur effects potentiel et leur clarté.
Le jour où les robots pourront préparer le dîner, débarrasser la desk de la cuisine et vider le lave-vaisselle est encore loin. Mais le groupe de recherche a fait des progrès significatifs avec son système robotique qui utilise l’intelligence artificielle pour aider les robots à mieux identifier et mémoriser les objets, a déclaré le Dr Yu Xiang, auteur principal de l’article.
“Si vous demandez à un robot de ramasser la tasse ou de vous apporter une bouteille d’eau, le robotic doit reconnaître ces objets”, a déclaré Xiang, professeur adjoint d’informatique à l’école d’ingénierie et d’informatique Erik Jonsson.
La technologie des chercheurs de l’UTD est conçue pour aider les robots à détecter une grande variété d’objets trouvés dans des environnements tels que les maisons et à généraliser ou identifier des versions similaires d’objets courants tels que des bouteilles d’eau de marques, formes ou tailles variées.
À l’intérieur du laboratoire de Xiang se trouve un bac de stockage rempli d’emballages de jouets contenant des aliments courants, tels que des spaghettis, du ketchup et des carottes, qui sont utilisés pour entraîner le robot de laboratoire, nommé Ramp. Ramp est un robot manipulateur mobile Fetch Robotics qui mesure environ 4 pieds de haut sur une plate-forme mobile ronde. La rampe est dotée d’un extensive bras mécanique à sept articulations. Au bout se trouve une « main » carrée avec deux doigts pour saisir les objets.
Xiang a déclaré que les robots apprennent à reconnaître les objets d’une manière similar à la façon dont les enfants apprennent à interagir avec les jouets.
“Après avoir poussé l’objet, le robotic apprend à le reconnaître”, a expliqué Xiang. “Avec ces données, nous entraînons le modèle d’IA afin que la prochaine fois que le robotic verra l’objet, il n’aura pas besoin de le pousser à nouveau. La deuxième fois qu’il verra l’objet, il le ramassera simplement.”
Ce qui est nouveau dans la méthode des chercheurs, c’est que le robotic pousse chaque élément 15 à 20 fois, alors que les méthodes de notion interactive précédentes n’utilisaient qu’une seule poussée. Xiang a déclaré que plusieurs pressions permettent au robotic de prendre furthermore de photographs avec sa caméra RVB-D, qui comprend un capteur de profondeur, pour en savoir plus sur chaque élément furthermore en détail. Cela réduit le risque d’erreurs.
La tâche de reconnaissance, de différenciation et de mémorisation des objets, appelée segmentation, est l’une des principales fonctions nécessaires aux robots pour accomplir des tâches.
“À notre connaissance, il s’agit du premier système qui exploite l’interaction à very long terme d’un robotic pour la segmentation d’objets”, a déclaré Xiang.
Ninad Khargonkar, doctorant en informatique, a déclaré que travailler sur le projet l’avait aidé à améliorer l’algorithme qui aide le robot à prendre des décisions.
“C’est une selected de développer un algorithme et de le tester sur un ensemble de données abstraites c’en est une autre de le tester sur des tâches réelles”, a déclaré Khargonkar. “Voir cette functionality dans le monde réel – c’était une expérience d’apprentissage clé.”
La prochaine étape pour les chercheurs consiste à améliorer d’autres fonctions, notamment la planification et le contrôle, qui pourraient permettre des tâches telles que le tri des matériaux recyclés.
Parmi les autres auteurs de l’article de l’UTD figuraient Yangxiao Lu, étudiant diplômé en informatique les seniors en informatique Zesheng Xu et Charles Averill Kamalesh Palanisamy MS’23 Dr Yunhui Guo, professeur adjoint d’informatique et le Dr Nicholas Ruozzi, professeur agrégé d’informatique. Le Dr Kaiyu Hang de l’Université Rice a également participé.
La recherche a été soutenue en partie par la Protection Highly developed Investigation Tasks Company dans le cadre de son programme Perceptually-enabled Process Guidance, qui développe des systems d’IA pour aider les utilisateurs à effectuer des tâches physiques complexes en fournissant des conseils de tâches avec la réalité augmentée pour élargir leurs compétences et réduire les erreurs..
Document de conférence soumis à arXiv : https://arxiv.org/ab muscles/2302.03793