Generelt. Forskning. Teknologi

Mordrobotter er ikke længere fiktion, men virkelighed

Det er værd at anerkende, at robotik i fortidenår trådte temmelig langt. Våben oprettet af forsvarsselskaber bliver smartere, kunstig intelligenssystemer forbindes til det, robotter bliver fuldstændigt autonome og så videre. Dette betyder, at en morder robot kan blive en realitet før vi tror. I det mindste siger det repræsentanterne for PAX, en non-profit organisation med base i Holland og går ind for verdensfred. De rapporterede om dette i deres rapport, der blev offentliggjort i tidsskriftet Quartz.

Vi er stadig langt fra cyborg-mordere, men robotter kan allerede skade mennesker

Hvorfor oprette morderobotter?

Killer robotter er til beslutningstagningom berøvelse af livet eller dets bevarelse uafhængigt uden menneskelig kontrol. PAX-eksperterne kaldte dette alarmerende tegn ”den tredje revolution i krigen” efter opfindelsen af ​​kruttet og atombomben. Både aktivister og stater opfordrer til oprettelse af et sæt internationale regler for oprettelse af sådanne våben eller endda et direkte forbud mod deres anvendelse. Men nogle lande, herunder De Forenede Stater, Kina og Den Russiske Føderation, har endnu ikke taget noget skridt i denne sag.

PAX-eksperter har identificeret mindst 30globale våbenproducenter, der ikke har en politik mod udvikling af ovennævnte typer våbensystemer. Disse inkluderer amerikanske forsvarsfirmaer Lockheed Martin, Boeing og Raytheon, kinesiske statskonglomerater AVIC og CASC, israelske virksomheder IAI, Elbit og Rafael, Russian Rostec og tyrkisk STM.

Indtil staterne er enigeat kollektivt skabe en slags reguleringsordning eller ideelt set et forebyggende forbud, er det sandsynligt, at virksomheder vil udvikle og fremstille og i sidste ende bruge våben, der ikke har tilstrækkelig menneskelig kontrol. - sagde forfatteren til rapporten, Frank Sleeper.

På samme tid tror ikke aktivister på, at militæretanvendelse af et bestemt kunstigt intelligenssystem er et problem. Problemet er netop, at sådanne systemer kan blive ukontrollerbare for mennesker. Og hvilken mening har du om dette spørgsmål? Tal i kommentarerne og i vores chat i Telegram.

For eksempel udvikler det amerikanske militær allerede sigen pistol med kunstig intelligens, der uafhængigt vil vælge og ramme mål, samt tanks med kunstig intelligens, der kan "identificere og ramme mål tre gange hurtigere end nogen person." Og STM, det tyrkiske statsforsvarsfirma, er allerede i fuld gang med at producere en kunstig intelligensrobot kaldet KARGU. Komplet med ansigtsgenkendelsesfunktioner kan KARGU autonomt vælge og angribe mål ved hjælp af koordinater, som operatøren tidligere har valgt. Det rapporteres, at Tyrkiet har til hensigt at bruge KARGU i Syrien.

PAX er mest bekymret for potentialetimplementering af AI i stødende systemer, der selv vælger og angriber mål uden menneskelig tilsyn. Gruppen undrer sig over, hvordan dette våben vil skelne mellem militære og civile. Desuden ved advokater stadig ikke, hvem der vil være ansvarlige, hvis autonome våben krænker international lov.

Tyrkisk KARGU drone sporer målet og ødelægger det, falder ovenfra, som en "kamikaze"

I modsætning til Google eller Amazon, hvilketoverfor både offentlig og intern reaktion på deres arbejde med militære systemer, handler virksomheder som Lockheed Martin og Raytheon udelukkende med militæret, så de står over for minimal reaktion fra partnere såvel som fra almindelige mennesker, da de fleste udviklingen indtil et vist punkt forbliver klassificeret.

Se også: Hvorfor er det umuligt at oprette en tænkende robot?

Mens udviklingen af ​​autonome våbenfortsætter, mener PAX, at der stadig er mulighed for at forhindre en mulig katastrofe. Gruppen sagde, at fremstillingsvirksomheder kunne spille en afgørende rolle i dette og bør modsætte sig produktionen af ​​et fuldt autonomt dødbringende våben. For så vidt angår våbensystemer med støtte til kunstig intelligens, siger repræsentanter for det russiske kunsthøjskole, at forsvarsfirmaer skal følge et vist sæt regler, der endnu ikke er udviklet. Men ingen opfordrer til helt at opgive AI.