Γενικά

Ήρθε η ώρα να δώσουμε στην τεχνητή νοημοσύνη την ίδια προστασία με τα ζώα

Τα πανεπιστήμια σε όλο τον κόσμο περνούν σοβαράέρευνα τεχνητής νοημοσύνης. Οι τεχνολογικοί γίγαντες την αναπτύσσουν ενεργά. Πιθανότατα, πολύ σύντομα θα έχουμε τεχνητή νοημοσύνη, στις ικανότητες σκέψης της που στέκονται στο επίπεδο των ποντικιών ή των σκύλων. Και αυτό σημαίνει ότι είναι καιρός να σκεφτούμε ότι τέτοια τεχνητή νοημοσύνη θα χρειαστεί ηθική προστασία, την οποία συνήθως δίνουμε ζώα.

Η τεχνητή νοημοσύνη βλάπτει;

Μέχρι τώρα, στις συζητήσεις σχετικά με το θέμα των δικαιωμάτων πνευματικής ιδιοκτησίας ήΤα "δικαιώματα των ρομπότ" κυριαρχούσαν από ερωτήσεις σχετικά με τις ηθικές υποχρεώσεις που θα μπορούσαμε να επιβάλλουμε στους AI με ανθρώπινη ή ανώτερη νοημοσύνη - όπως το ανδροειδές Data από το Star Trek ή το Dolores από τον Wild West World. Αλλά το να σκεφτόμαστε αυτό σημαίνει να ξεκινάμε από το λάθος μέρος. Πριν δημιουργήσουμε έναν ΑΙ με ανθρώπινες ιδιότητες που αξίζει την ανθρώπινη ηθική, θα δημιουργήσουμε ένα λιγότερο περίπλοκο AI που αξίζει τα ηθικά δικαιώματα, στην καλύτερη περίπτωση, τα ζώα.

Έχουμε ήδη αρχίσει να είμαστε προσεκτικοί στην έρευνα, στοστην οποία εμπλέκονται ορισμένα ζώα. Ειδικές επιτροπές αξιολογούν προτάσεις έρευνας για να εξασφαλίσουν ότι τα σπονδυλωτά ζώα δεν θα θανατωθούν άσκοπα και δεν θα υποστούν υπερβολική ταλαιπωρία. Εάν εμπλέκονται ανθρώπινα βλαστοκύτταρα ή ανθρώπινα εγκεφαλικά κύτταρα, τα πρότυπα επιτήρησης είναι ακόμη πιο αυστηρά. Η βιοϊατρική έρευνα εξετάζεται προσεκτικά, αλλά η έρευνα AI, η οποία ενδέχεται να συνεπάγεται μερικούς από τους ίδιους δεοντολογικούς κινδύνους, δεν εξετάζεται καθόλου. Ίσως αξίζει τον κόπο.

Ίσως νομίζετε ότι το AI δεν αξίζει τέτοιαηθική προστασία επειδή δεν κατέχει συνείδηση ​​- δηλαδή, επειδή δεν έχει μια πραγματική ροή εμπειρίας, με πραγματική χαρά και πόνο. Συμφωνούμε με αυτό. Αλλά εδώ έχετε ένα δύσκολο φιλοσοφικό ερώτημα: πώς ξέρουμε ότι έχουμε δημιουργήσει κάτι που είναι ικανό για χαρά και πόνο; Εάν ο ΑΙ είναι παρόμοιος με τον Data ή τον Dolores, μπορεί να διαμαρτυρηθεί και να προστατευθεί με την έναρξη μιας συζήτησης για τα δικαιώματά του. Αλλά αν το AI δεν μπορεί να το εκφράσει σαν ποντίκι ή σκύλο, ή για κάποιο άλλο λόγο δεν μας ενημερώνει για την εσωτερική του ζωή, μπορεί να μην μπορεί να αναφέρει τον πόνο. Αλλά αφού όλα τα σκυλιά μπορούν να χαρούν και να υποφέρουν.

Εδώ έρχεται ένα μυστήριο και μια δυσκολία, γιατίότι η επιστημονική μελέτη της συνείδησης δεν έχει καταλήξει σε συναίνεση σχετικά με τη συνείδηση ​​και πώς να μας πει εάν είναι παρούσα ή όχι. Σύμφωνα με κάποιες ιδέες - για να μιλήσουμε, φιλελεύθερες - για την παρουσία της συνείδησης, αρκεί μόνο η παρουσία μιας διαδικασίας καλά οργανωμένης επεξεργασίας πληροφοριών. Μπορούμε ήδη να είμαστε στο κατώφλι ενός τέτοιου συστήματος. Σύμφωνα με άλλες ιδέες - η συντηρητική συνείδηση ​​μπορεί να απαιτεί πολύ συγκεκριμένες βιολογικές λειτουργίες, όπως ο εγκέφαλος των θηλαστικών σε όλη του τη δόξα: και τότε δεν πλησιάζαμε στη δημιουργία τεχνητής συνείδησης.

Δεν είναι σαφές ποια προσέγγιση είναι σωστή. Αν όμως η "φιλελεύθερη" άποψη είναι αληθινή, πολύ σύντομα θα δημιουργήσουμε πολλές υποθωικές τεχνητές νοημοσύνη που αξίζουν ηθική προστασία. Υπάρχει ηθικός κίνδυνος.

Η συζήτηση σχετικά με την "επικινδυνότητα AI" επικεντρώνεται συνήθωςτους κινδύνους που μπορούν να δημιουργήσουν νέες τεχνολογίες της τεχνολογίας της πνευματικής ιδιοκτησίας, όπως η σύλληψη του κόσμου και η καταστροφή της ανθρωπότητας ή η καταστροφή του τραπεζικού μας συστήματος. Οι λιγότερο συνηθισμένοι είναι οι ηθικοί κίνδυνοι στους οποίους εκθέτουμε τον ΑΙ λόγω ακατάλληλου χειρισμού.

Όλα αυτά μπορεί να φαίνονται υπερβολικά, αλλά από τότεΟι επιστήμονες από την αναπτυξιακή κοινότητα του AI επιδιώκουν να αναπτύξουν συνειδητά συστήματα AI ή αξιόπιστα συστήματα AI που μπορεί τελικά να συνειδητοποιήσουν, πρέπει να λάβουμε σοβαρά υπόψη αυτό το ζήτημα. Τέτοιες μελέτες απαιτούν ηθική επαλήθευση, όπως αυτή που κάνουμε σε μελέτες σε ζώα και δείγματα ανθρώπινου νευρικού ιστού.

Στην περίπτωση μελετών σε ζώα και ακόμη και ανθρώπωντα κατάλληλα μέτρα προστασίας λήφθηκαν μόνο μετά την ανίχνευση σοβαρών δεοντολογικών παραβιάσεων (για παράδειγμα, σε περίπτωση περιττών ζωοτοξιών, ναζιστικών στρατιωτικών ιατρικών εγκλημάτων και άλλων). Με την AI, έχουμε την ευκαιρία να επιτύχουμε περισσότερα. Μπορεί να χρειαστεί να δημιουργήσουμε επιτροπές εποπτείας που θα αξιολογούν την έρευνα αιχμής στον τομέα της AI υπό το πρίσμα αυτών των θεμάτων. Οι επιτροπές αυτές θα πρέπει να περιλαμβάνουν όχι μόνο επιστήμονες, αλλά και σχεδιαστές της ΑΠ, γνωστικά, ειδικούς δεοντολογίας και ενδιαφερόμενους. Οι επιτροπές αυτές θα είναι επιφορτισμένες με τον εντοπισμό και την αξιολόγηση των δεοντολογικών κινδύνων των νέων μορφών σχεδιασμού της ΑΠ.

Είναι πιθανό ότι αυτές οι επιτροπές θα μετρήσουν όλαη τρέχουσα έρευνα στον τομέα της ΑΠ είναι αρκετά αποδεκτή. Στις περισσότερες περιπτώσεις, κανείς δεν πιστεύει ότι δημιουργούμε έναν AI με συνειδητή εμπειρία που αξίζει ηθικής εκτίμησης. Αλλά σύντομα μπορούμε να περάσουμε αυτή τη γραμμή. Πρέπει να είστε έτοιμοι.

Θα βρείτε ακόμα πιο ενδιαφέρον υλικό εδώ στο Ζεν.