Général

Les robots ont appris à reconnaître les objets avec un regard et une touche.

Il est assez facile pour les gens de déterminer la densité etle relief du sujet, juste en le regardant. Vous pourriez aussi bien dire à quoi ressemble l’objet, en le touchant les yeux fermés. De telles compétences aideraient les robots à mieux interagir avec les objets, mais jusqu'à présent, ils ne leur étaient malheureusement pas disponibles. Des chercheurs du Laboratoire d'intelligence artificielle du MIT (CSAIL) ont résolu ce problème en équipant le bras robotique KUKA d'un capteur tactile GelSight. L'intelligence artificielle a ainsi été en mesure d'étudier le lien entre les informations visuelles et tactiles et de les combiner.

Capteur tactile GelSight utilisédéveloppé par un groupe d'ingénieurs dirigé par Ted Adelson en 2014. À la base, il s'agit d'une copie électronique de la pointe d'un doigt humain, qui utilise une caméra et un film de caoutchouc sensible pour créer une carte en trois dimensions de la surface. L'appareil a déjà été testé plusieurs fois dans des conditions réelles - par exemple, une fois qu'il a aidé un robot à connecter correctement un câble USB au port.

</ p>

L'intelligence artificielle a combiné des organes du toucher et de la vision.

Dans le nouveau projet, le capteur a été installé dans le robotKUKA, et combiné à l'intelligence artificielle - le bras robotique a ainsi appris à l'œil nu à déterminer le relief des objets et à reconnaître aveuglément leur forme. Un ensemble de 12 000 vidéos contenant 200 objets, tels que des tissus, des outils et des articles ménagers, a été utilisé pour former le système. Les vidéos ont été divisées en images. C’est sur ces bases que le robot a combiné les informations tactiles et visuelles.

</ p>

Pour le moment, le robot est capable de travailleruniquement dans un environnement contrôlé et uniquement avec des objets qu’il connaît par avance. Les développeurs de systèmes souhaitent étendre ses capacités, donnant à l'intelligence artificielle plus de données à explorer.

En regardant la scène, notre modèle peut présenterun contact d'une surface plane ou une arête vive. Touchant à l'aveugle, elle peut déterminer la forme des objets uniquement à l'aide de sensations tactiles. La combinaison de ces deux sens peut étendre les capacités d'un robot et réduire la quantité de données dont il peut avoir besoin pour effectuer des tâches liées à la manipulation et à la capture d'objets », a expliqué Yunzhu Li, étudiant diplômé de CSAIL.

Les robots sont constamment améliorés, et à ce stademoment sais même comment travailler en équipe. Par exemple, les cafards VelociRoACH, développés à l’Université de Californie à Berkeley, ont récemment appris à s’aider mutuellement à se tenir debout. Vous pouvez lire à ce sujet et regarder la vidéo dans notre matériel.

Si vous êtes intéressé par les nouvelles de la science et de la technologie, assurez-vous de vous abonner à notre chaîne de Yandex. Dzen. Vous y trouverez des matériaux qui n'ont pas été publiés sur le site!