algemeen. onderzoek. technologie

Moordenaarrobots zijn niet langer fictie, maar realiteit

Het is de moeite waard om die robotica in het verleden te erkennende jaren zijn behoorlijk ver gegaan. De wapens van defensiebedrijven worden slimmer, kunstmatige intelligentiesystemen worden ermee verbonden, robots worden volledig autonoom, enzovoort. Dit betekent dat een moordende robot sneller realiteit kan worden dan we denken. Althans dat zeggen de vertegenwoordigers van PAX, een non-profit organisatie gevestigd in Nederland die pleiten voor wereldvrede. Ze meldden dit in hun rapport gepubliceerd in het tijdschrift Quartz.

We zijn nog ver verwijderd van cyborg-moordenaars, maar robots kunnen mensen al schaden

Waarom moordende robots maken?

Moordenaar robots zijn voor het nemen van beslissingenover de deprivatie van het leven of het behoud ervan onafhankelijk, zonder menselijke controle. De PAX-experts noemden dit alarmerende teken 'de derde revolutie in de oorlog' na de uitvinding van buskruit en de atoombom. Zowel activisten als staten roepen op tot het opstellen van een reeks internationale regels voor het maken van dergelijke wapens, of zelfs tot een direct verbod op het gebruik ervan. Maar sommige landen, waaronder de Verenigde Staten, China en de Russische Federatie, hebben nog geen actie ondernomen op dit punt.

PAX-experts hebben minstens 30 geïdentificeerdwereldwijde wapenfabrikanten die geen beleid hebben om bovengenoemde soorten wapensystemen te ontwikkelen. Deze omvatten Amerikaanse defensiebedrijven Lockheed Martin, Boeing en Raytheon, Chinese staatsconglomeraten AVIC en CASC, Israëlische bedrijven IAI, Elbit en Rafael, Russische Rostec en Turkse STM.

Totdat de staten het eens zijnom gezamenlijk een soort reguleringsregime te creëren of, idealiter, een preventief verbod, is het waarschijnlijk dat bedrijven wapens ontwikkelen en produceren die uiteindelijk onvoldoende menselijke controle hebben. - zei de auteur van het rapport, Frank Sleeper.

Tegelijkertijd geloven activisten niet dat het legerde toepassing van een bepaald systeem voor kunstmatige intelligentie is een probleem. Het probleem is precies dat dergelijke systemen voor mensen oncontroleerbaar kunnen worden. En welke mening heb je hierover? Spreek in de reacties en in onze chat in Telegram.

Het Amerikaanse leger ontwikkelt zich bijvoorbeeld aleen pistool met kunstmatige intelligentie, dat onafhankelijk doelen zal selecteren en raken, evenals tanks met kunstmatige intelligentie, die "doelen drie keer sneller dan wie dan ook kan identificeren en raken". En STM, het Turkse staatsverdedigingsbedrijf, is al in volle gang met de productie van een AI-aangedreven robot genaamd KARGU. KARGU is compleet met gezichtsherkenningsmogelijkheden en kan autonoom doelen selecteren en aanvallen met behulp van eerder door de operator geselecteerde coördinaten. Het is gemeld dat Turkije van plan is KARGU in Syrië te gebruiken.

PAX maakt zich het meest zorgen over het potentieelde inzet van AI in offensieve systemen die zelf doelen selecteren en aanvallen, zonder menselijk toezicht. De groep vraagt ​​zich af hoe dit wapen onderscheid zal maken tussen militairen en burgers. Bovendien weten advocaten nog steeds niet wie verantwoordelijk zal zijn als een autonoom wapen het internationale recht schendt.

Turkse KARGU-drone volgt het doelwit en vernietigt het, van bovenaf vallend, als een "kamikaze"

Bovendien, in tegenstelling tot Google of Amazon, diebedrijven zoals Lockheed Martin en Raytheon worden geconfronteerd met zowel publieke als interne reacties op hun werk op militaire systemen, en houden zich uitsluitend bezig met het leger, dus ze worden geconfronteerd met minimale reacties van partners, evenals van gewone mensen, omdat de meeste ontwikkelingen tot op zekere hoogte blijven geclassificeerd.

Zie ook: Waarom is het onmogelijk om een ​​denkrobot te maken?

Terwijl de ontwikkeling van autonome wapensgaat verder, PAX gelooft dat er nog steeds de mogelijkheid is om een ​​mogelijke ramp te voorkomen. De groep zei dat productiebedrijven hierin een beslissende rol kunnen spelen en zich moeten verzetten tegen de productie van een volledig autonoom dodelijk wapen. Wat betreft wapensystemen met ondersteuning voor kunstmatige intelligentie, zeggen vertegenwoordigers van de Russische Academie van Kunsten dat defensiebedrijven een aantal nog te ontwikkelen regels moeten volgen. Maar niemand roept op om AI volledig te verlaten.