Генерал, Ресеарцх, Технологија

Роботи убице више нису фикција, већ стварност

Вриједно је препознати роботику у прошлостигодина одступила прилично далеко. Оружје које су створиле одбрамбене компаније постају паметније, на њега се вежу системи вештачке интелигенције, роботи постају потпуно аутономни, и тако даље. То значи да робот убица може постати стварност и пре него што мислимо. Барем тако кажу представници ПАКС-а, непрофитне организације са седиштем у Холандији и залажу се за светски мир. То су пријавили у свом извештају објављеном у часопису Куартз.

Још смо далеко од киборских убица, али роботи већ могу наштетити људима

Зашто стварати робове убице?

Роботи убице намењени су одлучивањуо лишењу живота или његовом очувању независно, без људске контроле. Стручњаци ПАКС-а назвали су овај алармантни знак „трећом револуцијом у рату“ након проналаска барута и атомске бомбе. И активисти и државе позивају на стварање скупа међународних правила којима се регулише стварање таквог оружја или чак на директну забрану њихове употребе. Али неке земље, укључујући Сједињене Државе, Кину и Руску Федерацију, још увек нису предузеле мере по том питању.

Стручњаци за ПАКС идентификовали су најмање 30 особаглобални произвођачи оружја који немају политику против развоја горе наведених врста оружја. Ту се убрајају америчке одбрамбене фирме Лоцкхеед Мартин, Боеинг и Раитхеон, кинески државни конгломерати АВИЦ и ЦАСЦ, израелске фирме ИАИ, Елбит и Рафаел, руски Ростец и турски СТМ.

Док се државе не договореда би заједнички створили некакав регулаторни режим или, у идеалном случају, превентивну забрану, вероватно ће компаније развијати и производити, и на крају користити оружје које нема довољно људске контроле. - рекао је аутор извештаја Франк Слеепер.

У исто време, активисти не верују да је војскапримена одређеног система вештачке интелигенције представља проблем. Проблем је управо у томе што такви системи могу постати неконтролисани за људе. И какво мишљење имате о овом питању? Говорите у коментарима и у нашем цхату у Телеграму.

На пример, америчка војска се већ развијапиштољ са вештачком интелигенцијом, који ће самостално бирати и гађати циљеве, као и тенкови са вештачком интелигенцијом, који ће моћи да "идентификују и погоде циљеве три пута брже од било које особе". А СТМ, турска државна одбрамбена компанија, већ је у пуном јеку производећи робота за вештачку интелигенцију названог КАРГУ. Уз могућност препознавања лица, КАРГУ може аутономно бирати циљеве и нападати користећи координате које је претходно изабрао оператор. Извјештава се да Турска намјерава користити КАРГУ у Сирији.

ПАКС је највише забринут за потенцијалразмештање АИ у офанзивним системима који ће сами бирати и нападати циљеве, без људског надзора. Група се пита како ће ово оружје разликовати војску од цивила. Штавише, адвокати још увек не знају ко ће бити одговоран уколико аутономно оружје крши међународно право.

Турски беспилотни трупац КАРГУ прати мету и уништава је, падајући одозго, попут "камиказе"

Штавише, за разлику од Гооглеа или Амазона којисуочене са реакцијама јавности и унутрашњих послова на њихов рад на војним системима, компаније попут Лоцкхеед Мартин и Раитхеон баве се искључиво војском, тако да се суочавају са минималним реакцијама партнера, али и обичних људи, као и већина кретања до одређене тачке остају класификована.

Погледајте такође: Зашто је немогуће створити размишљања робота?

Док је развој аутономног оружјанаставља се, ПАКС верује да још увек постоји могућност да се спречи могућа катастрофа. Група је рекла да производне компаније могу играти пресудну улогу у томе, и требало би да се супротставе производњи потпуно аутономног леталног оружја. Што се тиче система наоружања са подршком за вештачку интелигенцију, представници Руске академије уметности кажу да одбрамбене фирме морају да поштују одређени скуп правила која тек треба да буду развијена. Али нико не позива на потпуно одустајање од АИ.

Фацебоок Обавештење за ЕУ! Морате се пријавити да бисте видели и објавили ФБ коментаре!