General, Research, Technology

Чи може штучний інтелект знищити людство вже до 2035 року?

Британський фізик-теоретик Стівен Хокінг вважав,що створення штучного інтелекту (ІІ) стане «або гіршим, або найкращою подією в історії людства». Ще в 2016 році вчений виступав за створення наукової організації, головним завданням якої буде дослідження перспектив штучного інтелекту як «критично важливого питання для майбутнього нашої цивілізації і нашого виду». Нещодавно дослідники в галузі криміналістики визначили топ-18 загроз ІІ, про які нам слід турбуватися в найближчі 15 років. У той час як наукова фантастика і популярна культура зображують загибель людства від рук інтелектуальних роботів, результати дослідження показали, що головна загроза насправді має більше спільного з нами, ніж може здатися на перший погляд.

Deep Fake - ось головна загроза, яку несе в собі ІІ

ІІ - це загроза?

Сьогодні може здатися, що штучнийінтелект, який представляє загрозу для людства - це доля наукових фантастів і фільмів на зразок «Матриці» або «Я-робот». Погодьтеся, досить складно уявити собі всемогутній і страшний ІІ, коли Siri не здатна дати правильний прогноз погоди. Але Шейн Джонсон, директор Центру майбутніх злочинів Дауеса в Каліфорнійському університеті пояснює, що кількість потенційних загроз буде рости і вони будуть стає все складніше і складніше, переплітаючись з нашим повсякденним життям.

На думку Джонсона, чиї слова наводить Inverse,ми живемо в постійно мінливому світі, який створює нові можливості - як хороші, так і погані. Ось чому так важливо передбачити майбутні загрози, в тому числі зростання злочинності. Це необхідно, щоб політики та інші зацікавлені сторони, які мають компетенцією, могли виявити злочину ще до того, як вони відбудуться. Так, прямо як у фільмі «Особлива думка» з Томом Крузом у головних ролях.

Хоча автори роботи, опублікованої в журналі Crime Science визнають, що висновки дослідження по своїй суті носять спекулятивний характер і залежать від сучасної політичної обстановки і технічного розвитку, в майбутньому технології і політика йтимуть рука в руку.

Щоб завжди бути в курсі останніх наукових відкриттів в області високих технологій і не тільки, підписуйтесь на наш канал в Google News.

Кадр з фільму «Осбое думка»

Штучний інтелект і злочинність

Для того щоб зробити ці футуристичнівисновки, дослідники зібрали команду з 14 вчених в суміжних областях, семи експертів з приватного сектора і 10 експертів з державного сектора. Ці 30 експертів були рівномірно розподілені на групи від чотирьох до шести осіб і отримали список потенційних злочинів ІІ, починаючи від фізичних погроз (наприклад, автономна атака безпілотника) і закінчуючи цифровими формами загроз. Для того щоб винести свої судження, команда розглянула чотири основні особливості атак:

  • шкода
  • рентабельність
  • досяжність
  • поражаемость

Шкода, в даному випадку, може ставитися дофізичному, психічному чи соціальному збитку. Автори дослідження далі визначають, що ці загрози можуть заподіяти шкоду, або побудови ІІ (наприклад, ухиляючись від розпізнавання осіб), або використовуючи ІІ для вчинення злочину (наприклад, шантажуючи людей за допомогою deep fake - підробленого відео).

Хоча ці фактори насправді не можуть бутивідокремлені один від одного, експертам було запропоновано розглянути вплив цих критеріїв окремо. Потім результати команд були розсортовані, щоб визначити загальні найбільш небезпечні загрози з боку ІІ в найближчі 15 років.

ІІ - діаграма загроз

На відміну від роботизованої загрози, здатноїзаподіяти фізичну шкоду або пошкодити майну, deep fake здатний позбавити нас довіри до людей і самому суспільству. Оцінюючи загрози по перерахованим вище критеріям, група дослідників визначила, що deep fake - технологія, яка вже існує і поширюється - являють собою найвищий рівень загрози.

Важливо розуміти, що загрози, які несе в собі ІІ, безсумнівно, будуть силою, з якою доведеться рахуватися в найближчі роки.

Порівнюючи 18 різних типів загроз ІІ група визначила, що відео і аудіоманіпуляціі в формі deep fake є найбільшою загрозою.

«Люди мають сильну тенденцію вірити своїмвласним очам і вухам, тому аудіо і відео-традиційно надавалося велике довіру (і часто юридична сила), незважаючи на довгу історію фотографічного обману », - пояснюють автори. «Але недавні розробки в галузі навчання (в тому чтсле і deep fake) значно розширили можливості для генерації підробленого контенту.»

Це цікаво: Штучний інтелект розкрив секрет щасливих стосунків

Автори дослідження вважають, що потенційневплив цих маніпуляцій варіюється від осіб, які обманюють людей похилого віку, видаючи себе за члена сім'ї, до відео, призначених для того, щоб сіяти недовіру до суспільних і урядовим діячам. Вони також додають, що ці атаки важко виявити окремим особам (і навіть експертам в деяких випадках), що ускладнює їх зупинку. Таким чином, зміни в поведінці громадян можуть бути єдиним ефективним захистом.

Deep Fake - основна загроза ІІ

Інші головні загрози включали автономніавтомобілі, що використовуються в якості дистанційного зброї, подібні автомобільним терористичні атаки, які ми бачили в останні роки, ІІ і фальшивих новин (фейк-ньюс). Цікаво, що група вважала роботів-зломщиків (маленьких роботів, які можуть пролізти через маленькі отвори, щоб вкрасти ключі і допомогти грабіжникам і хакерам) однієї з найбільш незначних загроз.

А що ви думаєте з цього приводу? Відповідь будемо чекати тут!

Ми приречені?

Ні, але у нас є деяка робота.Популярні зображення загроз ІІ припускають, що у нас буде одна червона кнопка для натискання, яка може змусити всіх мерзенних роботів і комп'ютери зупинитися. Насправді, загроза полягає не стільки в самих роботах, скільки в тому, як ми використовуємо їх, щоб маніпулювати і шкодити один одному. Розуміння цього потенційної шкоди і все можливе, щоб випередити його у формі інформаційної грамотності та створення спільноти, може стати потужним інструментом проти цього більш реалістичного апокаліпсису роботів.