全般

ロボットは一目で触れることで物体を認識することを学びました。

人々が密度を決定するのはとても簡単です。見ているだけで、対象の安堵感。目を閉じてそれに触れるだけで、オブジェクトがどのように見えるかを言うこともできます。そのようなスキルは、ロボットが物とより良く相互作用するのを助けますが、残念ながら、今まで彼らは彼らに利用できませんでした。 MIT人工知能研究所(CSAIL)の研究者は、KUKAロボットアームにGelSight触覚センサーを装備することによってこの問題を解決しました - したがって、人工知能は視覚情報と触覚情報の間の関係を研究し、それらを組み合わせることができました。

中古GelSight触覚センサー2014年にTed Adelsonが率いるエンジニアのグループによって開発されました。その核となるのは、人間の指先の電子コピーで、カメラと敏感なゴムフィルムを使って表面の3次元マップを作成します。この装置は、ロボットがUSBケーブルをポートに正しく接続するのを手助けした後など、実環境で2回以上テストされています。

</ p>

人工知能は、触覚と視覚の器官を組み合わせています。

新しいプロジェクトでは、センサーはロボットに設置されましたKUKA、そして人工知能との組み合わせ - このようにしてロボットアームは物の浮き彫りを判断し、盲目的にその形状を認識することを目で学びました。布地、道具、生活用品など、200個のオブジェクトを含む12,000本のビデオのセットがシステムのトレーニングに使用されました。ビデオはフレームに分割されており、ロボットが触覚と視覚の情報を組み合わせたのはそれらの基礎に基づいていました。

</ p>

現時点では、ロボットは仕事をすることができます管理された環境でのみ、そして事前に彼に知られているオブジェクトでのみ。システム開発者はその機能を拡張して、人工知能に探求するデータを増やしたいと考えています。

シーンを見て、私たちのモデルは提示することができます平らな面または鋭いエッジに触れてください。盲目的に触れて、彼女は触覚だけで物の形を決定することができます。 CSAILの大学院生、Yunzhu Li氏は、次のように述べています。

ロボットは常に改良されていますチームで働く方法さえ知っている瞬間さえ。例えば、カリフォルニア大学バークレー校で開発されたゴキブリ - ゴキブリVelociRoACHは、最近、互いの足を立てるのを助けることを学びました。あなたはそれについて読み、私たちの資料の中でビデオを見ることができます。

科学技術のニュースに興味があるなら、Yandexのチャンネルを購読してください。そこには、サイトに掲載されていない資料があります。

EU向けのFacebook通知! FBコメントを表示および投稿するには、ログインする必要があります。