テクノロジー

人工知能が推論を学ぶのはいつですか?

毎日最先端のシステム人工知能はますます賢くなり、新しい知識とスキルを身に付けています。 AIはすでに人間よりも多くの分野で優れていることができます。しかし、この「優位性」の背後には、プログラムを「自由に考えさせる」ことができないコード行と明確に定義されたアルゴリズムしかありません。言い換えれば、機械はそれに組み込まれていないことをすることはできません。 AIは論理的な結論に達することができますが、与えられたトピックについて推論することはできません。そして、これはすぐに変わると思われます。

人々はどのように世界を知っていますか

私たちは、すべての合理的な生物と同様に、について学ぶ徐々に世界の装置。おもちゃのトラックがプラットホームから飛び出して空中にぶら下がっているのを見ている1歳の赤ちゃんを想像してみてください。彼にとって、これは珍しいことではありません。しかし、たった2〜3か月後に同じ実験をしてください。そうすれば、小さな男はすぐに何かが間違っていることに気づくでしょう。結局のところ、彼はすでに重力がどのように機能するかを知っています。

「誰にも物にすべきではないと子供に言う人工知能の開発を指揮し、ニューヨーク大学の教授を務めるフェイスブックの責任者であるJan Lekun氏は、次のように述べています。 - 「子供たちが世界について学ぶことの多くは、観察を通して学ぶものです。」

そして、たとえそれがどれほど単純に聞こえても、AI開発者が人工知能のより高度なバージョンを作成するのを助けることができるのは、このアプローチです。

AIに理性を教えることがなぜそれほど難しいのか

ディープマシンラーニング言い換えれば、今日試行錯誤して特定のスキルを習得することで、AIは大きな成功を収めています。しかし最も重要なのは、人工知能ではまだ不可能なことです。彼は、自分が存在する客観的現実の分析に基づいて結論を推論して引き出すことはできません。言い換えれば、機械は周りの世界を真に理解していないため、相互作用できなくなります。

これは面白いです:人工知能は火かき棒の人を打つことができますか?

AIを改善する方法の1つは一種の「共有メモリ」です。これは、マシンが周囲の世界に関する情報を取得して徐々にそれを研究するのに役立ちます。しかし、これですべての問題が解決するわけではありません。

「明らかに、私たちは何かを見逃しています」と言うレクン教授「子供は、大人のゾウとその赤ちゃんが2枚の写真だけを見てどのように見えるかについて理解を深めることができます。ディープラーニングのアルゴリズムは数千の画像を見る必要がありますが、数百万の画像を見る必要はありません。 10代の若者は、安全な運転をするために数十時間を練習し、事故を回避する方法を理解することができますが、ロボットは何千万時間もの時間をかけなければなりません。

AIに理性を教える方法

Lekun教授によると、答えは教師なし学習として知られている、深層学習の過小評価されたサブカテゴリ。教師付き学習および強化学習に基づくアルゴリズムが、外部からのデータ入力を通じて目標を達成するようにAIに教えるとき、教師なしは自分で行動パターンを開発します。簡単に言うと、ロボットに歩行を教える方法は2つあります。最初の方法は、ロボットの構造に基づいてすべてのパラメータをシステムに入力することです。 2つ目は、歩行とは何かの原理を「説明」して、ロボットに独立して学習させることです。同時に、圧倒的多数の既存のアルゴリズムは最初の道に沿って機能します。 Yang Lekun氏は、強調は2番目の方法に移されるべきだと考えています。

「研究者は学習から始めるべきです予測アルゴリズムたとえば、ニューラルネットワークにビデオの後半を予測し、前半だけを見させるようにします。はい、この場合は間違いは避けられませんが、このようにしてAI推論を教え、その適用の可能性を広げます。子供とおもちゃのトラックの例に戻ると、2つの結果が考えられます - トラックは落下または凍結します。そのような例をニューラルネットワークに「投げる」と、彼らは論理的な相互接続を構築する方法を学び、そして最終的に推論する方法を学びます。」

あなたはTelegramsの私達のチャットでこれと他のニュースについて議論することができます。