General, Research, Technology

Роботи-вбивці - це вже не фантастика, а реальність

Варто визнати, що робототехніка за останніроки зробила крок досить далеко. Зброя, що створюється оборонними компаніями, стає розумнішою, до нього підключають системи штучного інтелекту, роботи знаходять повну автономність і так далі. А це означає, що робот-вбивця може стати реальністю раніше, ніж ми думаємо. По крайней мере, так вважають представники PАХ, некомерційної організації, що базується в Нідерландах і виступає за мир у всьому світі. Про це вони повідомили в своїй доповіді, опублікованій в журналі Quartz.

До кіборгів-убивць нам ще далеко, але ось роботи вже цілком можуть завдати шкоди людині

Навіщо створювати роботів-вбивць?

Роботи-вбивці призначені для прийняття рішеньпро позбавлення життя або збереження її самостійно, без людського контролю. Цей тривожна ознака фахівці РАХ назвали «третьою революцією в війні» після винаходу пороху і атомної бомби. Як активісти, так і держави закликають до створення зводу міжнародних правил, що регулюють створення подібної зброї, або навіть прямої заборони на його ісплозованіе. Але деякі країни, в тому числі США, Китай і Російська Федерація, до сих пір не вжили заходів з даного питання.

Фахівці РАХ виявили щонайменше 30світових виробників зброї, які не мають політики проти розробки вищеозначених видів систем озброєння. В їх число входять американські оборонні фірми Lockheed Martin, Boeing і Raytheon, китайські державні конгломерати AVIC і CASC, ізраїльські фірми IAI, Elbit і Rafael, російський Ростех і турецька STM.

До тих пір, поки не домовилисяколективно створити якийсь режим регулювання або, в ідеалі, превентивний заборона, є ймовірність, що компанії будуть розробляти і виробляти, а в кінцевому підсумку і використовувати зброю, яке не має достатнього людського контролю. - сказав автор доповіді Френк Сліпер.

Активісти не вважають при цьому, що військовезастосування тієї чи іншої системи штучного інтелекту є проблемою. Проблема саме в тому, що такі системи можуть стати непідконтрольні людині. А яка думка маєте ви з даного питання? Висловіться в коментарях і в нашому чаті в телеграм.

Наприклад, американські військові вже розробляютьгармату зі штучним інтелектом, яка самостійно вибиратиме і вражати цілі, а також танки з штучним інтелектом, які, зможуть «ідентифікувати і вражати цілі в три рази швидше, ніж будь-яка людина». А STM, турецька державна оборонна компанія, вже щосили виробляє оснащеного штучним інтелектом робота під назвою KARGU. У комплекті з можливостями розпізнавання осіб, KARGU може автономно вибирати і атакувати цілі, використовуючи координати, попередньо вибрані оператором. Повідомляється, що Туреччина має намір використовувати KARGU в Сирії.

PAX найбільше стурбовані потенційнимрозгортанням ІІ в наступальних системах, які будуть вибирати і атакувати цілі самостійно, без людського нагляду. Група задається питанням про те, яким чином ця зброя буде проводити відмінність між військовими і цивільними особами. У тому ж, юристи досі не знають, хто буде нести відповідальність, якщо автономне зброю порушить міжнародне право.

Турецький безпілотник KARGU вистежує мета і знищує її, падаючи зверху, як «камікадзе»

При цьому на відміну від Google або Amazon, якізіткнулися як з публічною, так і з внутрішньої реакцією на свою роботу над військовими системами, компанії на кшталт Lockheed Martin і Raytheon, мають справи виключно з військовими, тому вони стикаються з мінімальною реакцією з боку партнерів, а також з боку звичайних людей, так як більшість розробок до певного моменту залишаються засекреченими.

Читайте також: Чому неможливо створити мислячого робота?

У той час як розвиток автономного зброїтриває, РАХ вважають, що ще є можливість запобігти можливій катастрофі. Група заявила, що компанії-виробники можуть зіграти вирішальну роль в цьому, і повинні виступити проти виробництва повністю автономного летального зброї. Що стосується систем озброєння з підтримкою штучного інтелекту, то представники РАХ заявлют, що оборонні фірми повинні слідувати нікому зводу правил, який ще належить розробити. Але повністю відмовлятися від ІІ ніхто не закликає.