Général. Recherche. La technologie

Les robots tueurs ne sont plus une fiction, mais une réalité

Il vaut la peine de reconnaître que la robotique a travers le passéles années ont pas mal avancé. Les armes créées par les entreprises de défense deviennent de plus en plus intelligentes, des systèmes d’intelligence artificielle y sont connectés, les robots deviennent totalement autonomes, etc. Cela signifie qu'un robot tueur peut devenir une réalité plus tôt que nous le pensons. C'est du moins ce que disent les représentants de PAX, une organisation à but non lucratif basée aux Pays-Bas et défendant la paix dans le monde. Ils ont rapporté cela dans leur rapport publié dans la revue Quartz.

Nous sommes encore loin des tueurs cyborg, mais les robots peuvent déjà nuire à l'homme

Pourquoi créer des robots tueurs?

Les robots tueurs sont pour la prise de décisionsur la privation de la vie ou de sa préservation de manière indépendante, sans contrôle humain. Les experts de PAX ont qualifié ce signe alarmant de «troisième révolution de la guerre» après l'invention de la poudre à canon et de la bombe atomique. Les activistes et les États appellent à la création d'un ensemble de règles internationales régissant la création de telles armes, voire à une interdiction directe de leur utilisation. Mais certains pays, notamment les États-Unis, la Chine et la Fédération de Russie, n'ont pas encore pris de mesures à ce sujet.

Les experts de PAX ont identifié au moins 30les fabricants mondiaux d'armes qui n'ont pas pour politique de développer les types de systèmes d'armes susmentionnés. Ceux-ci comprennent les sociétés de défense américaines Lockheed Martin, Boeing et Raytheon, les conglomérats d’États chinois AVIC et CASC, les sociétés israéliennes IAI, Elbit et Rafael, le russe Rostec et le turc STM.

Jusqu'à ce que les états soient d'accordpour créer collectivement une sorte de régime de réglementation ou, idéalement, une interdiction préventive, il est probable que les entreprises développent et fabriquent et, au final, utilisent des armes qui n’ont pas un contrôle humain suffisant. - a déclaré l'auteur du rapport, Frank Sleeper.

Dans le même temps, les militants ne croient pas que l'arméel'application d'un système d'intelligence artificielle particulier est un problème. Le problème est précisément que de tels systèmes peuvent devenir incontrôlables pour l'homme. Et quelle opinion avez-vous sur cette question? Parlez dans les commentaires et dans notre chat dans Telegram.

Par exemple, l'armée américaine développe déjàune arme à feu avec intelligence artificielle, qui sélectionnera et touchera de manière indépendante des cibles, ainsi que des chars à intelligence artificielle, qui pourront "identifier et frapper des cibles trois fois plus vite que quiconque". Et la STM, la société de défense de l’Etat turc, bat déjà son plein pour produire un robot à intelligence artificielle appelé KARGU. Doté de capacités de reconnaissance faciale, KARGU peut sélectionner et attaquer de manière autonome des cibles à l’aide de coordonnées préalablement sélectionnées par l’opérateur. La Turquie aurait l'intention d'utiliser KARGU en Syrie.

PAX est le plus préoccupé par le potentielle déploiement de l'IA dans des systèmes offensifs qui sélectionneront et attaqueront des cibles par eux-mêmes, sans supervision humaine. Le groupe se demande comment cette arme fera la distinction entre militaires et civils. En outre, les avocats ne savent toujours pas qui sera responsable si une arme autonome viole le droit international.

Le drone turc KARGU suit la cible et la détruit, tombant d'en haut, comme un "kamikaze"

De plus, contrairement à Google ou à Amazon, quiFace à des réactions publiques et internes à leurs travaux sur les systèmes militaires, des entreprises telles que Lockheed Martin et Raytheon traitent exclusivement avec les forces armées, de sorte que leur réaction, tant de la part des citoyens que des citoyens ordinaires, est minimale. les développements jusqu’à un certain point restent classés.

Voir aussi: Pourquoi est-il impossible de créer un robot pensant?

Alors que le développement des armes autonomescontinue, PAX estime qu’il est encore possible d’empêcher un éventuel désastre. Le groupe a déclaré que les entreprises de fabrication pourraient jouer un rôle décisif à cet égard et devraient s'opposer à la production d'une arme létale totalement autonome. En ce qui concerne les systèmes d'armes prenant en charge l'intelligence artificielle, des représentants de l'Académie des arts de Russie ont déclaré que les entreprises de défense devaient respecter un certain ensemble de règles qui n'avaient pas encore été développées. Mais personne n'appelle à abandonner complètement l'IA.