Γενικά, Έρευνα, Τεχνολογία

Τα ρομπότ δολοφόνων δεν είναι πλέον μυθοπλασία, αλλά πραγματικότητα

Αξίζει να αναγνωρίσουμε ότι η ρομποτική κατά το παρελθόνχρόνια προχώρησε αρκετά μακριά. Τα όπλα που δημιουργούνται από τις αμυντικές εταιρείες γίνονται πιο έξυπνα, τα συστήματα τεχνητής νοημοσύνης συνδέονται με αυτό, τα ρομπότ γίνονται πλήρως αυτόνομα και ούτω καθεξής. Αυτό σημαίνει ότι ένα ρομπότ δολοφόνων μπορεί να γίνει πραγματικότητα νωρίτερα από ό, τι νομίζουμε. Τουλάχιστον αυτό λένε οι εκπρόσωποι της PAX, μιας μη κερδοσκοπικής οργάνωσης που εδρεύει στις Κάτω Χώρες και υποστηρίζει την παγκόσμια ειρήνη. Το ανέφεραν αυτό στην έκθεσή τους που δημοσιεύτηκε στο περιοδικό Quartz.

Είμαστε ακόμα πολύ μακριά από τους δολοφόνους cyborg, αλλά τα ρομπότ μπορούν να βλάψουν τον άνθρωπο

Γιατί να δημιουργήσετε ρομπότ δολοφόνων;

Τα ρομπότ δολοφόνων είναι για λήψη αποφάσεωνγια τη στέρηση της ζωής ή τη διατήρησή της ανεξάρτητα, χωρίς ανθρώπινο έλεγχο. Οι ειδικοί του PAX κάλεσαν αυτό το ανησυχητικό σημάδι "την τρίτη επανάσταση στον πόλεμο" μετά την εφεύρεση της πυρίτιδας και της ατομικής βόμβας. Τόσο οι ακτιβιστές όσο και τα κράτη ζητούν τη δημιουργία ενός συνόλου διεθνών κανόνων που διέπουν τη δημιουργία τέτοιων όπλων ή ακόμη και την άμεση απαγόρευση της χρήσης τους. Ωστόσο, ορισμένες χώρες, συμπεριλαμβανομένων των Ηνωμένων Πολιτειών, της Κίνας και της Ρωσικής Ομοσπονδίας, δεν έχουν ακόμη αναλάβει δράση για το θέμα αυτό.

Οι ειδικοί του PAX έχουν εντοπίσει τουλάχιστον 30 άτομαπαγκόσμιους κατασκευαστές όπλων που δεν έχουν πολιτική κατά της ανάπτυξης των παραπάνω τύπων συστημάτων όπλων. Αυτές περιλαμβάνουν τις αμερικανικές εταιρείες άμυνας Lockheed Martin, Boeing και Raytheon, κινεζικούς κρατικούς ομίλους AVIC και CASC, ισραηλινές εταιρείες IAI, Elbit και Rafael, ρωσικό Rostec και τουρκικό STM.

Μέχρι να συμφωνήσουν τα κράτηνα δημιουργήσουμε συλλογικά ένα είδος ρυθμιστικού καθεστώτος ή, ιδανικά, μια προληπτική απαγόρευση, είναι πιθανό οι εταιρείες να αναπτύξουν και να κατασκευάσουν και τελικά να χρησιμοποιήσουν όπλα που δεν έχουν επαρκή ανθρώπινο έλεγχο. - είπε ο συντάκτης της έκθεσης, Frank Sleeper.

Την ίδια στιγμή, οι ακτιβιστές δεν πιστεύουν ότι ο στρατόςη εφαρμογή ενός συγκεκριμένου συστήματος τεχνητής νοημοσύνης είναι ένα πρόβλημα. Το πρόβλημα είναι ακριβώς ότι τέτοια συστήματα μπορεί να καταστούν ανεξέλεγκτα για τον άνθρωπο. Και ποια γνώμη έχετε σχετικά με αυτό το ζήτημα; Μιλήστε στα σχόλια και στη συνομιλία μας στο Telegram.

Για παράδειγμα, ο αμερικανικός στρατός αναπτύσσεται ήδηένα όπλο με τεχνητή νοημοσύνη, το οποίο θα επιλέγει και χτυπά ανεξάρτητα τους στόχους, καθώς και δεξαμενές με τεχνητή νοημοσύνη, οι οποίες μπορούν να "εντοπίσουν και να χτυπήσουν στόχους τρεις φορές γρηγορότερα από οποιοδήποτε άτομο". Και η STM, η τουρκική αμυντική εταιρεία του κράτους, είναι ήδη σε πλήρη εξέλιξη και παράγει ένα ρομπότ με τεχνολογία AI που ονομάζεται KARGU. Ολοκληρωμένη με δυνατότητες αναγνώρισης προσώπου, το KARGU μπορεί να επιλέξει αυτόματα και να επιτεθεί σε στόχους χρησιμοποιώντας συντεταγμένες που είχαν προηγουμένως επιλεγεί από τον χειριστή. Αναφέρεται ότι η Τουρκία σκοπεύει να χρησιμοποιήσει το KARGU στη Συρία.

Ο PAX ενδιαφέρεται περισσότερο για τις δυνατότητεςη ανάπτυξη της ΑΠ σε προσβλητικά συστήματα που θα επιλέξουν και θα επιτεθούν στόχοι μόνοι τους, χωρίς ανθρώπινη επίβλεψη. Η ομάδα αναρωτιέται πώς το όπλο αυτό θα κάνει διάκριση μεταξύ στρατιωτικών και αμάχων. Επιπλέον, οι δικηγόροι δεν γνωρίζουν ακόμα ποιος θα είναι υπεύθυνος εάν ένα αυτόνομο όπλο παραβιάζει το διεθνές δίκαιο.

Το τουρκικό KARGU παρακολουθεί τον στόχο και τον καταστρέφει, πέφτοντας από πάνω, σαν ένα "καμικάζι"

Επιπλέον, σε αντίθεση με το Google ή το Amazon, το οποίοοι επιχειρήσεις όπως ο Lockheed Martin και ο Raytheon ασχολούνται αποκλειστικά με τον στρατό και αντιμετωπίζουν ελάχιστη αντίδραση τόσο από τους εταίρους όσο και από τους απλούς ανθρώπους, οι εξελίξεις μέχρι ένα ορισμένο σημείο παραμένουν διαβαθμισμένες.

Δείτε επίσης: Γιατί είναι αδύνατο να δημιουργήσετε ένα ρομπότ σκέψης;

Ενώ η ανάπτυξη των αυτόνομων όπλωνσυνεχίζει, ο PAX πιστεύει ότι υπάρχει ακόμη η ευκαιρία να αποτραπεί μια πιθανή καταστροφή. Η ομάδα δήλωσε ότι οι εταιρείες παραγωγής θα μπορούσαν να διαδραματίσουν αποφασιστικό ρόλο σε αυτό και θα πρέπει να αντιταχθούν στην παραγωγή ενός πλήρως αυτόνομου θανατηφόρου όπλου. Όσον αφορά τα συστήματα όπλων που υποστηρίζουν την τεχνητή νοημοσύνη, εκπρόσωποι της Ρωσικής Ακαδημίας Τεχνών λένε ότι οι αμυντικές επιχειρήσεις πρέπει να ακολουθήσουν ένα ορισμένο σύνολο κανόνων που δεν έχουν ακόμη αναπτυχθεί. Αλλά κανείς δεν ζητά την πλήρη εγκατάλειψη του AI.