Γενικά

Τα ρομπότ έχουν μάθει να αναγνωρίζουν αντικείμενα με μια ματιά και μια αφή.

Είναι πολύ εύκολο για τους ανθρώπους να καθορίσουν την πυκνότητα καιτην ανακούφιση του θέματος, απλά κοιτάζοντας το θέμα. Μπορείτε ίσως να πείτε ποιο είναι το αντικείμενο, απλά να το αγγίξετε με τα μάτια σας κλειστά. Τέτοιες δεξιότητες θα βοηθούσαν τα ρομπότ να αλληλεπιδρούν καλύτερα με αντικείμενα, αλλά, δυστυχώς, μέχρι τώρα δεν ήταν διαθέσιμα σε αυτά. Ερευνητές από το Εργαστήριο Τεχνητής Νοημοσύνης του MIT (CSAIL) λύνουν αυτό το πρόβλημα εξοπλίζοντας τον ρομποτικό βραχίονα KUKA με έναν αισθητήρα GelSight, οπότε η τεχνητή νοημοσύνη ήταν σε θέση να μελετήσει τη σχέση οπτικής και απτικής πληροφορίας και να τα συνδυάσει.

Χρησιμοποιήθηκε αισθητήρας GelSight αφήςπου αναπτύχθηκε από μια ομάδα μηχανικών με επικεφαλής τον Ted Adelson το 2014. Στον πυρήνα του, είναι ένα ηλεκτρονικό αντίγραφο της άκρης ενός ανθρώπινου δακτύλου, το οποίο χρησιμοποιεί μια φωτογραφική μηχανή και μια ευαίσθητη ταινία από καουτσούκ για να δημιουργήσει έναν τρισδιάστατο χάρτη της επιφάνειας. Η συσκευή έχει ήδη δοκιμαστεί σε πραγματικές συνθήκες περισσότερες από μία φορές - για παράδειγμα, αφού βοήθησε ένα ρομπότ να συνδέσει σωστά ένα καλώδιο USB στη θύρα.

</ p>

Η τεχνητή νοημοσύνη έχει συνδυάσει όργανα αφής και όρασης.

Στο νέο έργο, ο αισθητήρας εγκαταστάθηκε στο ρομπότKUKA, και σε συνδυασμό με την τεχνητή νοημοσύνη - με αυτό τον τρόπο το ρομποτικό βραχίονα έμαθε με το μάτι να προσδιορίσει την ανακούφιση των αντικειμένων και να αναγνωρίσει τυφλά το σχήμα τους. Ένα σύνολο 12.000 βίντεο με 200 αντικείμενα, όπως υφάσματα, εργαλεία και οικιακά αντικείμενα, χρησιμοποιήθηκαν για την εκπαίδευση του συστήματος. Τα βίντεο χωρίστηκαν σε πλαίσια και βασίστηκε στο ότι το ρομπότ συνδυάζει απτικές και οπτικές πληροφορίες.

</ p>

Προς το παρόν, το ρομπότ μπορεί να εκτελέσει εργασίαμόνο σε ελεγχόμενο περιβάλλον και μόνο με αντικείμενα που του γνωρίζει εκ των προτέρων. Οι προγραμματιστές του συστήματος επιθυμούν να επεκτείνουν τις δυνατότητές τους, δίνοντας στην τεχνητή νοημοσύνη περισσότερα δεδομένα για να εξερευνήσουν.

Κοιτάζοντας τη σκηνή, το μοντέλο μας μπορεί να παρουσιάσειένα άγγιγμα μιας επίπεδης επιφάνειας ή μια αιχμηρή άκρη. Αν αγγίξει τυφλά, μπορεί να καθορίσει το σχήμα των αντικειμένων μόνο με αίσθηση αίσθησης. Συνδυάζοντας αυτές τις δύο αισθήσεις μπορεί να επεκτείνει τις δυνατότητες ενός ρομπότ και να μειώσει την ποσότητα δεδομένων που μπορεί να χρειαστεί για την ολοκλήρωση εργασιών που σχετίζονται με το χειρισμό και τη σύλληψη αντικειμένων », εξήγησε ο CSAIL απόφοιτος φοιτητής Yunzhu Li.

Τα ρομπότ βελτιώνονται συνεχώς, και σε αυτόακόμη και στιγμή να ξέρουν πώς να εργάζονται σε μια ομάδα. Για παράδειγμα, τα roach-roach VelociRoACH, που αναπτύχθηκαν στο Πανεπιστήμιο της Καλιφόρνια στο Μπέρκλεϊ, πρόσφατα έμαθαν να βοηθήσουν ο ένας τον άλλον να σταθεί στα πόδια τους. Μπορείτε να διαβάσετε για αυτό και να παρακολουθήσετε το βίντεο στο υλικό μας.

Εάν ενδιαφέρεστε για τα νέα της επιστήμης και της τεχνολογίας, βεβαιωθείτε ότι έχετε εγγραφεί στο κανάλι μας στο Yandex. Εκεί θα βρείτε υλικά που δεν έχουν δημοσιευτεί στον ιστότοπο!