全般リサーチテクノロジー

犯罪者はどのように人工知能を使用できますか?最も危険なオプション

過去10年間、私たちは毎日のニュースを聞いてきましたこれまたはあの人工知能がどのように新しいスキルを学んだか。今日、コンピューターアルゴリズムは、有名なアーティストの描画スタイルをコピーしたり、他の人の声を模倣したり、公の人物を使って偽のビデオを作成したりすることができます。これらすべてを追跡することは非常に興味深いことですが、多くのコンピューターセキュリティの専門家は、攻撃者が新しいテクノロジーを使用して犯罪を犯す可能性があることを懸念しています。結局のところ、タスクを実行するためのニューラルネットワークの使用は、現在、いかなる方法でも規制されていません。プログラミングを上手にこなす人なら誰でも、人工知能を使って人々からお金を誘い出し、スパイし、他の違法行為を行うことができることがわかりました。最近、University College Londonのスタッフは、人工知能のどのスキルが人間社会に最大の害を及ぼす可能性があるかを調べることにしました。

人工知能は多くのことを行うことができます。たとえば、彼はアーノルドシュワルツェネッガーの顔をシルベスタースタローンに置き換えることができます

人工知能 -実在の人々により特徴的な創造的な機能を実行するためのコンピューターの特性。当社のウェブサイトには、このトピック専用の特別なセクションがあります。

人工知能機能

行われた作業の結果が共有されましたThe NextWebのエディション。科学的研究の一環として、研究者たちは、今後15年間で犯罪者が利用できる20の人工知能スキルを特定しました。残念ながら、大学のウェブサイトでも使用方法の完全なリストは見つかりませんでしたが、研究者たちは依然として最も重要な点について言及しました。

したがって、彼らの意見では、人工知能は次のことができます。

  • オートパイロットとしてよく知られている電気自動車を運転する。
  • ユーザーのログイン、パスワード、その他の個人データを不正に見つけます。つまり、フィッシングを行います。
  • ブラックメールに使用される可能性のある人々に関する犯罪的な写真、ビデオ、およびその他のデータを収集する。
  • 多数の人々の思考を制御できる偽のニュースを生成します。
  • 人を追いかけたり、家を奪ったりすることができる制御ロボット。
  • 彼らの評判を台無しにするために有名な人々と偽のビデオを作成します。

これらおよび他の多くの用途犯罪目的の神経ネットワークは、31人の人工知能専門家のグループによって研究されてきました。彼らは、社会への危険のレベルに応じてこれらすべてのスキルを分類するタスクを与えられました。専門家は、評価を編集する際に、特定のタスクを実行するために人工知能を使用することの複雑さ、詐欺を防ぐ可能性、および犯罪者が不正に取得できる金額を考慮に入れました。

参照:なぜ私たちは偽のニュースを信じるのですか?

ニューラルネットワークの危険性

人工知能の最も危険な能力は、いわゆる創造と呼ばれていました ディープフェイク (ディープフェイク)。 このコンピューターアルゴリズムのスキルは、2017年頃に初めて知られるようになりました。そのとき、Reddit Webサイトのユーザーの一人が、強力なコンピューターを使用して、ある人の顔を別の人の顔に置き換える偽のビデオを作成する方法を世界に示しました。彼は彼の最も卑猥な例でこれを示し、有名人の顔をアダルトビデオに挿入しました。このニュースは多くの騒ぎを引き起こし、この形のディープフェイクは禁止されることさえありました。しかし、現時点では、ElonMuskが「コスモドロームの轟音」について歌うような面白いビデオをプログラマーが作成することを妨げる人は誰もいません。

偽のビデオを元のビデオと区別するのが非常に難しい場合があります

また、ディープフェイクは台無しにするために使用することができます有名人の評判とこれは何度も証明されています。数年連続で、米国の衆議院の議長である、酔っ払ったと思われるナンシー・ペロシと一緒にビデオがインターネットに登場しました。もちろん、これらのビデオは偽物ですが、多くの視聴回数を獲得しており、実際に本物と間違える人もいます。確かに、多くの人は偽のビデオを作成する技術についてさえ疑っていません-技術に精通した古い世代の人々はほんのわずかです。

以前、私の同僚であるArtem Sutyaginは、ニューラルネットワークの危険性について書いています。結果は非常に詳細な資料ですので、ぜひお読みください!

第二の危険はそのようなことです詐欺の方法を止めるのは難しいです。事実、偽のビデオは非常に現実的であるため、それらを認識することはほとんど不可能です。これは、2020年6月にFacebookのDeepfake DetectionChallengeによって証明されました。 2,000人以上の開発者が参加し、偽のビデオを認識するためのアルゴリズムを作成しました。最高の認識精度は65%でした。これは、サイバーセキュリティの専門家によると、このような深刻な問題では非常に悪い結果です。

ディープフェイクが投稿されたRedditWebサイトのセクションはすでにブロックされています

犯罪と戦う

のような他のAI機能車やロボットの運転は、ディープフェイクほど危険とは見なされていません。はい、ハッキングされた自動操縦装置は、車を高速で旋回させてポールに衝突させる可能性があります。しかし、この場合、私たちは1人の犠牲者について話しているのに対し、偽のビデオは何千人もの人々の心に影響を与える可能性があります。または、たとえば、ロボットを使用して人をスパイし、家の強盗を犯します。それらは非常に簡単に検出できるため、専門家はそれらを危険とはまったく見なしていません。手にハンマーがあり、それだけです-「スパイ」はなくなりました。

私たちの記事が気に入ったら、Googleニュースで購読してください!これにより、新しいコンテンツを追跡しやすくなります。

からの危険を最小限に抑えるために何をすべきか人工知能はまだ明確ではありません。または、偽の動画を検出するためのアルゴリズムの作成に引き続き取り組むこともできます。どういうわけかニューラルネットワークの使用を制御することもできますが、これは技術の開発を遅らせる可能性があります。結局のところ、人工知能は犯罪者だけでなく、世界をより良い場所にしたい科学者によっても使用されています。最近、スタートアップのLanding AIは、社会的な距離を維持する方法を彼に教えました。これは、これらの困難な時期に多くの命を救うことができます。