Τεχνολογία

Επικίνδυνη ανθρωπότητα: γιατί χρειαζόμαστε έξυπνη τεχνητή νοημοσύνη;

Όταν ο Norbert Wiener, ο πατέρας της κυβερνητικής, έγραψε το δικό τουΤο βιβλίο «Ανθρώπινη χρήση ανθρώπινων όντων» το 1950, οι σωλήνες κενού ήταν ακόμα τα κύρια ηλεκτρονικά δομικά στοιχεία και στην πραγματικότητα υπήρχαν μόνο λίγοι υπολογιστές. Εντούτοις, φαντάστηκε το μέλλον, το οποίο τώρα βλέπουμε, με άνευ προηγουμένου ακρίβεια, έχοντας κάνει λάθος μόνο σε ασήμαντα μικροδουλειά.

Πριν από κάθε άλλο τεχνητό φιλόσοφοη νοημοσύνη, συνειδητοποίησε ότι η ΑΠ δεν θα απλώς μιμείται - και θα αντικαταστήσει - τα ανθρώπινα όντα σε πολλά είδη πνευματικής δραστηριότητας, αλλά θα αλλάξει τους ανθρώπους στη διαδικασία. "Είμαστε απλά υδρομασάζ σε ένα ποτάμι συνεχούς ροής νερού", έγραψε. «Δεν είμαστε κάτι που ζει μόνο, είμαστε μοντέλα που διαιωνίζουν τον εαυτό τους».

Για παράδειγμα, όταν πολλοί δελεαστικόευκαιρίες, είμαστε πρόθυμοι να πληρώσουμε και να δεχτούμε τις μικρές επιχειρηματικές δαπάνες για να αποκτήσετε πρόσβαση σε νέες ευκαιρίες. Και πολύ σύντομα θα γίνουμε εθισμένοι σε νέα εργαλεία, θα χάσουμε την ικανότητα να υπάρχει χωρίς αυτά. Απαιτούνται επιλογές.

Πρόκειται για μια πολύ παλιά ιστορία της εξέλιξης και πολλά κεφάλαιααπό αυτό είμαστε γνωστοί. Τα περισσότερα θηλαστικά μπορούν να συνθέσουν τη δική τους βιταμίνη C, αλλά τα πρωτεύοντα που τρώνε κυρίως φρούτα χάνουν αυτή την ενσωματωμένη ικανότητα. Τα αυτο-επαναλαμβανόμενα μοτίβα που ονομάζουμε ανθρώπους εξαρτώνται τώρα από ρούχα, μεταποιημένα τρόφιμα, βιταμίνες, σύριγγες, πιστωτικές κάρτες, smartphones και το Διαδίκτυο. Και αύριο, αν όχι σήμερα, - από την τεχνητή νοημοσύνη.

Ο Wiener προέβλεπε αρκετά προβλήματα με αυτή την κατάσταση, την οποία ο Alan Turing και άλλοι αισιόδοξοι πρώιμοι AI έλειπαν σε μεγάλο βαθμό. Η πραγματική απειλή, είπε, ήταν:

... ότι τέτοια μηχανήματα, αν και αβοήθητοιαπό μόνα τους, μπορούν να χρησιμοποιηθούν από τους ανθρώπους ή να εμποδίσουν τα ανθρώπινα όντα να αυξήσουν τον έλεγχό τους στην υπόλοιπη φυλή ή οι πολιτικοί ηγέτες να προσπαθήσουν να ελέγξουν τους πληθυσμούς τους χρησιμοποιώντας όχι πολιτικές μεθόδους αλλά πολιτικές μεθόδους στενές και αδιάφορες για τον άνθρωπο εφευρέθηκαν μηχανικά.

Προφανώς, οι κίνδυνοι αυτοί είναι πολύ σημαντικοί τώρα.

Στα μέσα ενημέρωσης, για παράδειγμα, καινοτομίες στον ψηφιακό ήχο καιτα βίντεο μας επιτρέπουν να πληρώσουμε μια μικρή τιμή (στα μάτια των ερασιτέχνες και τους λάτρεις των ταινιών) για την άρνηση των αναλογικών μορφών και να πάρουμε εξαιρετικά απλά ως αντάλλαγμα - πάρα πολύ απλός - ένας τρόπος να παίζουμε αρχεία με σχεδόν κανέναν περιορισμό.

Αλλά υπάρχει μια τεράστια κρυμμένη τιμή. Το υπουργείο αλήθειας του Orwell έχει γίνει μια πραγματική δυνατότητα. Οι μέθοδοι AI για τη δημιουργία ουσιαστικά αδιαίρετων πλαστών "αρχείων" καθιστούν ξεπερασμένα τα εργαλεία που χρησιμοποιήσαμε για έρευνες τα τελευταία 150 χρόνια.

Μας παραμένει απλά να εγκαταλείψουμε την σύντομη εποχή.φωτογραφικές αποδείξεις και επιστροφή σε εκείνο τον παλιό κόσμο όπου η ανθρώπινη μνήμη και η εμπιστοσύνη ήταν το χρυσό πρότυπο. Ή μπορούμε να αναπτύξουμε νέες μεθόδους άμυνας και επίθεσης στη μάχη για την αλήθεια. Ένα από τα πιο συναρπαστικά πρόσφατα παραδείγματα ήταν το γεγονός ότι η καταστροφή μιας φήμης είναι πολύ φθηνότερη από την απόκτηση και την προστασία αυτής της φήμης. Ο Wiener είδε αυτό το φαινόμενο πολύ ευρέως: "Μακροπρόθεσμα, δεν θα υπάρξει διαφορά ανάμεσα στον εξοπλισμό του εαυτού σου και στον οπλισμό του εχθρού". Η εποχή της πληροφορίας έχει επίσης γίνει μια εποχή παραπληροφόρησης.

Τι μπορούμε να κάνουμε; Το κλειδί είναι η παρατήρηση του Wiener ότι «αυτά τα μηχανήματα» είναι «αβοήθητα από μόνα τους». Δημιουργούμε εργαλεία, όχι συναδέλφους, και η πραγματική απειλή είναι ότι δεν βλέπουμε τη διαφορά.

Τεχνητή νοημοσύνη στο ρεύμα τουςεκδηλώσεις παράσιτα στην ανθρώπινη νοημοσύνη. Απελευθερώνει πολύ ακίνητα όλα όσα δημιουργούν οι ανθρώπινοι δημιουργοί και τα σχέδια των εκχυλισμάτων - συμπεριλαμβανομένων των πιο μυστικών συνηθειών μας. Αυτά τα μηχανήματα δεν έχουν ακόμα στόχους ή στρατηγικές, δεν είναι ικανά για αυτοκριτική και καινοτομία, μελετούν μόνο τις βάσεις δεδομένων μας χωρίς να έχουν τις δικές τους σκέψεις και στόχους.

Είναι, όπως λέει ο Wiener, ανήμποροι σε αυτόπου σημαίνει ότι είναι αλυσοδεμένοι ή ακινητοποιημένοι, όχι, δεν είναι καθόλου πράκτορες - δεν έχουν την ικανότητα να «δρουν για αιτίες», όπως θα έλεγε ο Καντ.

Μακροπρόθεσμα, "ισχυρό AI", ήγενική τεχνητή νοημοσύνη, δυνατή κατ 'αρχήν, αλλά ανεπιθύμητη. Ακόμα πιο περιορισμένο AI, το οποίο είναι δυνατό στην πράξη σήμερα, δεν θα είναι κακό. Αλλά είναι μια απειλή - εν μέρει επειδή μπορεί να γίνει λάθος για ένα ισχυρό AI.

Πόσο ισχυρή είναι η τεχνητή νοημοσύνη σήμερα;

Το χάσμα μεταξύ των σημερινών συστημάτων καιΤα συστήματα sci-fi που πλημμυρίζουν τη λαϊκή φαντασία είναι ακόμα τεράστια, αν και πολλοί άνθρωποι, τόσο ερασιτέχνες όσο και επαγγελματίες, τείνουν να το υποτιμούν. Ας δούμε το Watson της IBM, το οποίο μπορεί να αξίζει τον σεβασμό της εποχής μας.

Αυτός ο υπερυπολογιστής είναι το αποτέλεσμα εξαιρετικάμια διαδικασία έρευνας και ανάπτυξης μεγάλης κλίμακας (έρευνα και ανάπτυξη), στην οποία συμμετείχαν πολλοί άνθρωποι και ο σχεδιασμός πληροφοριών για πολλούς αιώνες, και χρησιμοποιεί χιλιάδες φορές περισσότερη ενέργεια από τον ανθρώπινο εγκέφαλο. Η νίκη του στο Jeopardy! ήταν ένας πραγματικός θρίαμβος, ο οποίος κατέστη δυνατό από τους περιορισμούς της διατύπωσης των κανόνων της Τρομοκρατίας!, αλλά για να μπορέσει να συμμετάσχει, ακόμη και αυτοί οι κανόνες έπρεπε να αναθεωρηθούν. Έπρεπε να εγκαταλείψω ένα κομμάτι της ευελιξίας και να προσθέσω την ανθρωπότητα να κάνει την παράσταση.

Η Watson είναι μια κακή εταιρεία, παρά την είσοδοη παραπλανητική διαφήμιση από την IBM, η οποία υπόσχεται τις συνομιλικές ικανότητες του AI σε επίπεδο όγκου και μετατρέποντας τον Watson σε έναν πιθανό πολύπλευρο πράκτορα θα ήταν παρόμοια με τη μετατροπή μιας αριθμομηχανής σε Watson. Ο Watson μπορεί να είναι μια καλή υπολογιστική περίπτωση για έναν τέτοιο πράκτορα, αλλά μάλλον μια παρεγκεφαλίδα ή μια αμυγδαλή παρά ένα μυαλό - στην καλύτερη περίπτωση, ένα υποσύστημα ειδικού σκοπού που παίζει ρόλο υποστήριξης, αλλά επίσης ένα σύστημα σχεδιασμού και διατύπωσης στόχων, ανάλογα με την εμπειρία της συζήτησης που αποκτήθηκε.

Και γιατί θα θέλαμε να δημιουργήσουμε μια σκέψη καιδημιουργικός πράκτορας από το watson; Ίσως η λαμπρή ιδέα του Turing - του διάσημου τεστ Turing - μας παρασύρθηκε σε μια παγίδα: γίναμε εμμονή με τη δημιουργία τουλάχιστον της ψευδαίσθησης ενός πραγματικού ατόμου που κάθεται μπροστά στην οθόνη, παρακάμπτοντας την "απειλητική κοιλάδα".

Ο κίνδυνος είναι ότι από τον Turingπαρουσίασε το καθήκον του - το οποίο ήταν, πρωτίστως, το καθήκον να εξαπατήσει τους δικαστές - οι δημιουργοί του AI προσπαθούσαν να το επιτύχουν με τη βοήθεια αστείων ανθρωποειδών κούκλες, εκδόσεις "κινούμενων σχεδίων" που θα γοητεύουν και θα αφοπλίζουν τους απροσδιόριστους. Το ELIZA Joseph Weisenbaum, το πρώτο chatbot, ήταν ένα ζωντανό παράδειγμα δημιουργίας μιας τέτοιας ψευδαίσθησης και ταυτόχρονα ένας εξαιρετικά απλός αλγόριθμος που θα μπορούσε να πείσει τους ανθρώπους ότι είχαν ειλικρινείς και ειλικρινείς συνομιλίες με άλλους ανθρώπους.

Ήταν ανησυχούν για την ευκολία με την οποία οι άνθρωποι είναι πρόθυμοιπιστεύουν σε αυτό. Και αν καταλάβουμε κάτι από τον ετήσιο διαγωνισμό για να περάσουμε τον περιορισμένο έλεγχο Turing για το βραβείο Lebner, είναι ότι ακόμη και οι πιο έξυπνοι άνθρωποι που δεν είναι πολύ έμπειροι στον προγραμματισμό ηλεκτρονικών υπολογιστών οδηγούνται εύκολα σε αυτά τα απλά κόλπα.

Η στάση των ανθρώπων στον τομέα της ΑΠ σε τέτοιες μεθόδουςποικίλει από την καταδίκη στην προώθηση και η συναίνεση είναι ότι όλα αυτά τα κόλπα δεν είναι ιδιαίτερα βαθιά, αλλά μπορούν να είναι χρήσιμα. Μια μετατόπιση στη στάση που θα ήταν πολύ χρήσιμη θα ήταν μια ειλικρινής παραδοχή ότι τα ανδροειδή που ζωγραφίζονται στις κούκλες είναι ψευδείς διαφημίσεις που πρέπει να καταδικαστούν και να μην ενθαρρυνθούν.

Πώς να το πετύχετε αυτό; Μόλις καταλάβουμε ότι οι άνθρωποι αρχίζουν να παίρνουν αποφάσεις για τη ζωή και το θάνατο, ακολουθώντας τις «συμβουλές» των συστημάτων ΑΙ, των οποίων οι εσωτερικές λειτουργίες είναι σχεδόν ακατανόητες, θα δούμε έναν καλό λόγο για όσους παροτρύνουν τους ανθρώπους να εμπιστεύονται τέτοια συστήματα να αρχίζουν να βασίζονται στην ηθική και το νόμο.

Τα συστήματα AI είναι πολύ ισχυρά.εργαλεία. Τόσο ισχυρό όσο και οι εμπειρογνώμονες έχουν έναν καλό λόγο να μην εμπιστεύονται τη δική τους κρίση όταν υπάρχουν «κρίσεις» που αντιπροσωπεύονται από αυτά τα εργαλεία. Αλλά εάν αυτοί οι χρήστες εργαλείων επωφελούνται, από οικονομική ή άλλη άποψη, από τη διάδοση αυτών των εργαλείων, πρέπει να βεβαιωθούν ότι ξέρουν πώς να το κάνουν με πλήρη ευθύνη, μέγιστο έλεγχο και αιτιολόγηση.

Χορήγηση αδειών και έγκριση από τον φορέα εκμετάλλευσηςαυτά τα συστήματα -όπως εξουσιοδοτούμε τους φαρμακοποιούς, τους χειριστές γερανών και άλλους επαγγελματίες των οποίων τα λάθη και οι εσφαλμένες κρίσεις μπορούν να έχουν σοβαρές συνέπειες- μπορούν, με την υποστήριξη των ασφαλιστικών εταιρειών και άλλων οργανισμών, να υποχρεώσουν τους δημιουργούς των συστημάτων AI να προχωρήσουν μακριά, αναζητώντας αδυναμίες και αδυναμίες τα προϊόντα τους, καθώς και να εκπαιδεύσουν όσους πρόκειται να συνεργαστούν μαζί τους.

Μπορείτε να φανταστείτε ένα είδος αντίστροφης δοκιμής.Turing, στην οποία ο δικαστής θα αποτελέσει αντικείμενο αξιολόγησης. μέχρι να βρει αδυναμίες, παραβιάσεις, κενά στο σύστημα, δεν θα λάβει άδεια. Για να αποκτήσετε πιστοποιητικό, ένας τέτοιος δικαστής θα χρειαστεί σοβαρή εκπαίδευση. Η επιθυμία να αποδώσει σε ένα αντικείμενο την ανθρώπινη ικανότητα να σκέφτεται, όπως συνήθως κάνουμε όταν συναντάμε έναν λογικό πράκτορα, είναι πολύ, πολύ ισχυρή.

Στην πραγματικότητα, η ικανότητα να αντισταθείη επιθυμία να δούμε σε κάτι εξανθρωπισμένο είναι ένα παράξενο πράγμα. Πολλοί άνθρωποι θα βρίσκουν την καλλιέργεια τέτοιου ταλέντου αμφισβητήσιμη, διότι ακόμη και οι πιο ρεαλιστικοί χρήστες του συστήματος αντιμετωπίζουν περιστασιακά τα εργαλεία τους "φιλικά".

Δεν έχει σημασία πόσο προσεκτικά οι σχεδιαστέςη τεχνητή νοημοσύνη θα αποκλείει τα ψεύτικα "ανθρώπινα" σημειώματα στα προϊόντα τους, πρέπει να περιμένουμε την άνθηση ετικετών, παρακάμψεων και επιτρεπτών στρεβλώσεων της πραγματικής «κατανόησης» και των δύο συστημάτων και των χειριστών τους. Με τον ίδιο τρόπο που διαφημίζονται στην τηλεόραση τα φάρμακα με μακρά λίστα ανεπιθύμητων ενεργειών ή οινόπνευμα, παρέχοντας το βίντεο με αφθονία λεπτών εκτυπώσεων με όλες τις προειδοποιήσεις, τόσο οι κατασκευαστές τεχνητής νοημοσύνης θα συμμορφώνονται με τον νόμο, αλλά θα είναι εξειδικευμένοι στις προειδοποιήσεις.

Γιατί χρειαζόμαστε τεχνητή νοημοσύνη;

Δεν χρειαζόμαστε τεχνητούς συνειδητοποιημένους παράγοντες. Υπάρχουν πολλοί φυσικοί συνειδητοί παράγοντες που αρκούν για να εκτελέσουν οποιαδήποτε καθήκοντα που προορίζονται για ειδικούς και προνομιούχα άτομα. Χρειαζόμαστε έξυπνα εργαλεία. Τα εργαλεία δεν έχουν δικαιώματα και δεν πρέπει να έχουν συναισθήματα που μπορεί να βλάψουν ή να «κακοποιηθεί».

Ένας από τους λόγους για τους οποίους δεν γίνεται τεχνητήσυνειδητοί παράγοντες είναι ότι αν και μπορούν να γίνουν αυτόνομοι (και κατ 'αρχήν αυτοί μπορούν να είναι αυτόνομοι, αυτοβελτιωτικοί ή αυτο-δημιουργικοί όπως οποιοσδήποτε άνθρωπος), δεν πρέπει - χωρίς ειδική άδεια - να μοιράζονται την ευπάθεια ή τη θνησιμότητά μας.

Daniel Dennett, καθηγητής φιλοσοφίας από τοΤο Πανεπιστήμιο Tufts, κάποτε έθεσε ένα έργο για τους μαθητές σε ένα σεμινάριο για τους τεχνητούς παράγοντες και την αυτονομία: δώσε μου τις τεχνικές προδιαγραφές ενός ρομπότ που μπορεί να υπογράψει μια σύμβαση μαζί σου - όχι ένα υποκατάστατο που ανήκει σε άλλο πρόσωπο, αλλά από μόνο του. Δεν πρόκειται για κατανόηση των αιτιών ή των χειρισμών ενός στυλό σε χαρτί, αλλά μάλλον για κατοχή και άξιου κατοχή νομικού καθεστώτος και ηθικής ευθύνης. Τα μικρά παιδιά δεν μπορούν να υπογράψουν τέτοιες συμβάσεις, καθώς και τα άτομα με αναπηρία, των οποίων το νομικό καθεστώς υποχρεώνει τους να είναι υπό κηδεμονία και επιβάλλει ευθύνη στους κηδεμόνες.

Το πρόβλημα των ρομπότ που μπορεί να θέλουνγια να αποκτήσετε ένα τόσο υψηλό επίπεδο είναι ότι, όπως και ο Σούπερμαν, είναι πολύ ευάλωτοι να κάνουν τέτοιες δηλώσεις. Αν αρνηθούν, τι θα συμβεί; Ποια θα είναι η τιμωρία για το σπάσιμο μιας υπόσχεσης; Θα κλείσουν σε ένα κλουβί ή θα αποσυναρμολογηθούν; Μια φυλακή για τεχνητή νοημοσύνη δεν θα είναι ενοχλητική αν δεν φορτώσουμε πρώτα τη δίψα για ελευθερία, η οποία δεν μπορεί να αγνοηθεί ή να απενεργοποιηθεί από την ίδια την ΑΠ. Η αποσυναρμολόγηση του AI δεν θα σκοτώσει τις πληροφορίες που είναι αποθηκευμένες στο δίσκο του και στο λογισμικό.

Εύκολη ψηφιακή καταγραφή και μεταφορά δεδομένων -μια ανακάλυψη που επέτρεψε στο λογισμικό και τα δεδομένα να αποκτήσουν, στην πραγματικότητα, την αθανασία - κάνει τα ρομπότ άτρωτα. Αν αυτό δεν φαίνεται προφανές, σκεφτείτε πώς θα αλλάξει η ηθική του κόσμου αν μπορούσαμε να δημιουργήσουμε αντίγραφα ασφαλείας για κάθε εβδομάδα. Ένα άλμα από μια γέφυρα χωρίς καουτσούκ την Κυριακή μετά το backup της Παρασκευής μπορεί να είναι μια εξευτελιστική απόφαση, τότε μπορείτε να παρακολουθήσετε την καταγραφή του πρόωρου θανάτου σας αργότερα.

Γι 'αυτό δεν δημιουργούμε συνείδηση ​​-θα ήθελε να δημιουργήσει - ανθρωποειδείς πράκτορες, αλλά μάλλον έναν εντελώς νέο τύπο πλάσματα, μερικούς χρησμούς, ασυνείδητο, χωρίς φόβο για θάνατο, χωρίς να αποσπάται η αγάπη και το μίσος, χωρίς προσωπικότητα: καθρέφτες της αλήθειας που σχεδόν σίγουρα θα μολυνθούν με ανθρώπινα ψέμματα.

Η ανθρώπινη χρήση των ανθρώπωνθα αλλάξει σύντομα - για άλλη μια φορά, για πάντα, αλλά αν αναλάβουμε την ευθύνη για την τροχιά εξέλιξής μας, θα μπορέσουμε να αποφύγουμε τους άσκοπους κινδύνους.

Δεν συμφωνώ; Πείτε μας τη γνώμη σας στην αίθουσα συνομιλίας μας στο Telegram.