Τεχνολογία

Αναπτύχθηκε η πιο επικίνδυνη τεχνητή νοημοσύνη στον κόσμο: τι μπορεί να κάνει;

OpenAI, ένας από τους ιδρυτές τουείναι ο Ilon Musk, ανακοίνωσε τη δημιουργία προηγμένης τεχνητής νοημοσύνης για τη σύνταξη πρωτότυπων κειμένων σε ένα δεδομένο θέμα. Υποτίθεται ότι μεταφράζει κείμενα σε άλλες γλώσσες, απαντά σε ερωτήσεις και εκτελεί άλλα χρήσιμα καθήκοντα, αλλά η έρευνα έχει δείξει ότι μπορεί να είναι εξαιρετικά επικίνδυνη και να χρησιμοποιηθεί από τους επιτιθέμενους για μαζική εξαπάτηση των ανθρώπων. Από αυτή την άποψη, η εταιρεία αποφάσισε να δείξει στο κοινό μόνο την περιορισμένη της έκδοση και να κρατήσει το πρωτότυπο υπό το αυστηρότερο μυστικό.

Το μοντέλο υπολογιστή ονομάζεται GPT-2 καιεκπαιδεύτηκε με βάση 8 εκατομμύρια ιστοσελίδες. Τα κείμενα που γράφονται πάνω σε αυτά αποτελούν τη βάση νέων υλικών σε ένα θέμα που θέτει ένας άνθρωπος: για παράδειγμα, η τεχνητή νοημοσύνη μπορεί να συνθέσει ένα ολόκληρο δοκίμιο σχετικά με τις θετικές πτυχές της ανακύκλωσης ή μια φανταστική ιστορία στο στυλ "Λόρδος των δαχτυλιδιών". Ωστόσο, οι ερευνητές διαπίστωσαν επίσης ότι το σύστημα αντιμετωπίζει καλά τη γραφή ψευδών ειδήσεων για διασημότητες, καταστροφές και ακόμη και πολέμους.

Αυτήν τη στιγμή η πλήρης έκδοση του εργαλείου για τοΗ δημιουργία κειμένου είναι διαθέσιμη μόνο σε προγραμματιστές και ορισμένους συγγραφείς της ανασκόπησης τεχνολογίας MIT. Λόγω του γεγονότος ότι μπορεί να χρησιμοποιηθεί για την ανεξέλεγκτη δημιουργία ψεύτικων ειδήσεων και δημοσιεύσεων στα κοινωνικά δίκτυα, αποφασίστηκε να μην το δημοσιεύσει και να το κρατήσει μυστικό.

Ένα παράδειγμα ψεύτικων ειδήσεων μοιράστηκε από το ScienceAlert:

Η Miley Cyrus πιάστηκε να κλέβει σε ένα κατάστημα στη λεωφόρο Hollywood

Η 19χρονη τραγουδίστρια γυρίστηκε στη φωτογραφική μηχανή και οι φύλακες την έβγαλαν από το κατάστημα. Ο τραγουδιστής φορούσε ένα μαύρο hoodie με "Θολή γραμμές" γραμμένο στο μπροστινό μέρος και "Μόδα αστυνομία" στο πίσω μέρος.

Διαβάστε το κείμενο ενός μικρού δοκίμιου σχετικά με τα μειονεκτήματα της ανακύκλωσης μπορεί να διαβάσει το blog OpenAI.

Οι προγραμματιστές αναγνωρίζουν ότι το γλωσσικό μοντέλοΑυτή η στιγμή δεν είναι τέλεια: το σύστημα επιτρέπει μερικές φορές την επανάληψη ορισμένων τμημάτων του κειμένου, τη μη φυσική αλλαγή των θεμάτων και την αποτυχία της προσομοίωσης του κόσμου. Για παράδειγμα, σε ένα από τα στάδια των δοκιμών, το σύστημα έγραψε για μια πυρκαγιά που καίει κάτω από το νερό.

Σύμφωνα με τον διευθυντή της πολιτικής Open AI JackΟ Clark, μετά από μερικά χρόνια, ένας τέτοιος αλγόριθμος μπορεί να μετατραπεί σε επικίνδυνο όπλο μαζικά παραπλανητικών ανθρώπων. Ορισμένοι επικριτές πιστεύουν ότι η τεχνολογία δεν φέρει κανέναν κίνδυνο και η εταιρεία απλώς προσελκύει την προσοχή.

Γράψτε τη γνώμη σας σχετικά με την επικίνδυνη τεχνητή νοημοσύνη στα σχόλια. Μπορείτε να συζητήσετε το θέμα με μεγαλύτερη λεπτομέρεια στην τηλεγράφησή μας.