リサーチ

人工知能はいつ人間の感情を理解し始めますか?

そして、それがあなたのものであるなら、あなたはロボットを信頼するでしょう主治医?感情的なインテリジェントカーは、見た目ほど遠くないかもしれません。過去数十年にわたって、人工知能は人々の感情的な反応を読み取る能力を大幅に向上させました。

しかし、感情を読むことは、感情を理解することを意味しません。 AI自体がそれらをテストできない場合、AIを完全に理解できるようになるでしょうか?そうでない場合、ロボットを所有していないプロパティに帰属させるリスクはありますか?

最新世代の人工知能はすでにコンピューターが学習できるデータ量の増加と、計算能力の増加に感謝します。これらのマシンは、私たちが通常実行のために人々に排他的に与えた業務で徐々に改善されています。

今日、人工知能は、とりわけ、顔を認識し、顔のスケッチを写真に変換し、音声を認識し、外出をすることができます。

犯罪者の特定

少し前まで、科学者は人工的に開発しました顔の特徴を見るだけで、人が犯罪者であるかどうかを判断できるインテリジェンス。このシステムは、中国の写真のデータベースを使用して評価され、その結果は驚くほど素晴らしいものでした。 AIは、6%の事例で誤って罪のない人々を犯罪者として分類し、83%の犯罪者を特定することに成功しました。全体の精度はほぼ90%でした。

このシステムは、と呼ばれるアプローチに基づいていますたとえば、顔認識で成功した「ディープラーニング」。ディープラーニングと「顔の回転モデル」を組み合わせることで、人工知能は、照明や角度が変わっても、2枚の写真が同じ人物の顔を表しているかどうかを判断できます。

ディープラーニングは「ニューラルネットワーク」を作成し、これは、人間の脳の近似を基礎とします。数十万のニューロンがさまざまな層で構成されています。各レイヤーは、たとえば顔画像などの入力データを、特定の方向と場所のエッジのセットなど、より高いレベルの抽象化に変換します。また、特定のタスクのパフォーマンスに最も関連する機能が自動的に強調表示されます。

ディープラーニングの成功を考えると、何もありません驚くべきことは、人工神経回路網が犯罪者と罪のない人を区別できることです-実際にそれらの間で異なる顔の特徴がある場合。この研究では3つの特徴が強調されました。 1つは、鼻の先端と口の角の間の角度で、犯罪者の場合、平均で19.6%減少します。上唇の曲率も犯罪者に対して平均23.4%大きく、目の内側の角の間の距離は平均5.6%狭くなります。

一見すると、この分析により犯罪者を物理的属性によって特定できるという古い見方はそれほど間違っていないことを示唆しています。ただし、これはすべてではありません。驚くべきことに、最も関連性の高い2つの特徴が唇に関連付けられており、これらが最も表情豊かな顔の特徴です。この調査で使用された犯罪者の写真には中立的な表情が必要ですが、AIはこれらの写真に隠された感情を見つけることができました。おそらくあまり重要ではないので、人々はそれらを検出できません。

サンプルを見る誘惑を克服するのは難しいあなた自身の写真-ここにあります。ドキュメントはまだレビュー中です。慎重な検査と真実は、罪のない人の写真にわずかな笑顔を明らかにします。しかし、サンプルには多くの写真がないため、データベース全体について結論を出すことはできません。

アフェクティブコンピューティングの力

コンピューターができるのはこれが初めてではありません人間の感情を認識する。いわゆる「感情的コンピューティング」または「感情的コンピューティング」の分野は長い間存在していました。快適に生活し、ロボットと対話したい場合、これらのマシンは人間の感情を理解し、適切に応答できる必要があると考えられています。この分野の可能性は非常に広範です。

たとえば、研究者は顔分析を使用し、コンピュータベースの学習レッスンが困難な生徒を特定する。 AIは、さまざまなレベルのエンゲージメントとフラストレーションを認識して、学生が作業が単純すぎたり複雑すぎたりすることをシステムが理解できるように教えました。このテクノロジーは、オンラインプラットフォームでの学習を改善するのに役立ちます。

ソニーは完全にロボットを開発しようとしていますが、人々と感情的な絆を結ぶことができます。彼女がこれをどのように達成しようとしていたのか、ロボットが正確に何をするのかはまだ明らかではありません。しかし、同社は「感情的に匹敵する体験を提供するためにハードウェアとサービスを統合しようとしている」と述べています。

感情的な人工知能には、対話者であれ演技者であれ、犯罪者を特定して治療について話すことができる多くの潜在的な利点があります。

倫理的な問題とリスクもあります。 認知症の患者がAIの人の仲間に頼って、実際にはそうではないにせよ、彼が感情的に生きていることを彼に話すことを許可するのは正しいでしょうか? AIが有罪だと言った場合、人を刑務所に入れることはできますか?もちろん違います。そもそも、人工知能は裁判官ではなく、「疑わしい」が、確かに有罪ではない人々を識別する捜査官になります。

感情や感情などの主観的なものは難しいAIは客観的に分析するのに十分なデータにアクセスできないため、人工知能を説明します。 AIは皮肉を理解するでしょうか? 1つの文は、あるコンテキストでは皮肉であり、別のコンテキストでは完全に異なる場合があります。

いずれにせよ、データの量と計算力は成長し続けています。いくつかの例外を除いて、AIは今後数十年でさまざまな種類の感情を認識することを学習する可能性があります。しかし、彼は自分でそれらをテストすることができるでしょうか?これは論点です。

EU向けのFacebook通知! FBコメントを表示および投稿するには、ログインする必要があります。