Γενικά, Έρευνα, Τεχνολογία

Ποιοι είναι οι κίνδυνοι των νευρωνικών δικτύων που υποτιμούμε;

Έχετε γνωρίσει ποτέ έναν άντρα στο δρόμοΠοιο από τα δύο θα μοιάζει σαν εσένα; Τα είδη ένδυσης, το πρόσωπο, το βάδισμα, ο τρόπος επικοινωνίας, οι συνήθειες είναι απολύτως όμοιες με τις δικές σας. Σαν να σαρώσατε και να εκτυπώσετε σε έναν εκτυπωτή. Ακούγεται λίγο ανατριχιαστικό, έτσι; Τώρα φανταστείτε ότι είδατε ένα βίντεο στο οποίο ένα τέτοιο πρόσωπο λέει κάτι για τον εαυτό του. Στην καλύτερη περίπτωση, θα προσπαθήσετε να θυμηθείτε όταν περπατήσατε με τέτοιο τρόπο ώστε να μην θυμηθείτε τίποτα, αλλά θα μπορούσατε να πείτε τέτοια πράγματα στην κάμερα. Μέχρι στιγμής, όλα αυτά ακούγονται σαν απλή λογική, αλλά η τεχνολογία έχει έρθει κοντά στη δημιουργία τέτοιων ανθρώπων. Υπάρχουν ήδη, αλλά σύντομα θα υπάρχουν πολλά άλλα.

Δεν πειράζει πώς φαντάζουμε το πρόσωπο των νευρωνικών δικτύων. Θα υπάρξουν σίγουρα κίνδυνοι σε αυτούς.

Το περιεχόμενο

  • 1 Από πού προέρχεται το ψεύτικο;
  • 2 Τι είναι η βαθιά εκμάθηση;
  • 3 Τι είναι το Deepfake; Πότε εμφανίστηκε το Deepfake;
  • 4 Κίνδυνος Deepfake. Πώς να αλλάξετε το πρόσωπο στο βίντεο;
  • 5 Πώς να προσδιορίσετε το Deepfake;
  • 6 Scary μελλοντικό σενάριο

Από πού προέρχεται το ψεύτικο;

Τώρα υπάρχει ήδη πολλά που είναι αποδεκτάκαλέστε απομιμήσεις. Είναι παντού. Μπορούν να βρεθούν σε φωτογραφίες, σε ειδήσεις, στην παραγωγή αγαθών και σε υπηρεσίες πληροφόρησης. Είναι ευκολότερο να πούμε πού δεν υπάρχουν φαινόμενα που να συνοδεύονται από αυτή τη λέξη. Ενώ μπορείτε να τους πολεμήσετε. Μπορείτε να μελετήσετε την προέλευση της φωτογραφίας, να ελέγξετε τα διακριτικά χαρακτηριστικά του επώνυμου προϊόντος από ένα ψεύτικο και να ελέγξετε τα νέα. Παρόλο που τα νέα είναι ένα ξεχωριστό θέμα.

Σήμερα, ο καταναλωτής του περιεχομένου δεν θέλει να περιμένεικαι απαιτεί από τον δημιουργό της στιγμιαία παραγωγή, μερικές φορές δεν ενδιαφέρεται ούτε για την ποιότητα, το σημαντικότερο, γρήγορα. Αυτό είναι όπου οι καταστάσεις προκύπτουν όταν κάποιος λέει κάτι, και τα υπόλοιπα, χωρίς έλεγχο, το έσυραν μέσα από τις ιστοσελίδες και τις εφημερίδες τους. Σε μερικές περιπτώσεις, χρειάζεται πολύς χρόνος για να γυρίσετε αυτή την μπάλα πίσω και να αποδείξετε ότι δεν ήταν όλα αλήθεια.

Εξηγήστε γιατί όλα αυτά γίνονται, δεν έχει νόημα. Από τη μία πλευρά, υπάρχουν εκείνοι που απλά θέλουν να γελάσουν την κατάσταση και, από την άλλη, εκείνοι που πραγματικά δεν ήξεραν ότι έκαναν λάθος. Ένα ξεχωριστό μέρος, περίπου στη μέση, καταλαμβάνεται από εκείνους στους οποίους είναι κερδοφόρα. Αυτά μπορεί να είναι συμφέροντα επιρροής σε διάφορα επίπεδα, συμπεριλαμβανομένων των πολιτικών. Μερικές φορές αυτός είναι ο στόχος της κερδοφορίας. Για παράδειγμα, πανικός σποράς στη χρηματιστηριακή αγορά και πραγματοποίηση κερδοφόρων εργασιών με τίτλους. Αλλά συχνά αυτό οφείλεται στην εχθρότητα προς ένα άτομο (εταιρεία, προϊόν, κ.λπ.) για να τον υποτιμήσει. Ένα απλό παράδειγμα είναι η "μείωση" των αξιολογήσεων μιας ανάρμοστης ταινίας ή ιδρύματος. Φυσικά, αυτό απαιτεί μια στρατιά από εκείνους που πηγαίνουν και θέτουν μια αντιπάθεια (μερικές φορές ακόμη και bots), αλλά αυτό είναι μια διαφορετική ιστορία.

Τι είναι η βαθιά εκμάθηση;

Πρόσφατα, ο όρος αυτός ακούγεται όλο και πιο συχνά. Μερικές φορές δεν είναι καν σχετική και συγχέεται με κάτι άλλο. Έτσι το προϊόν λογισμικού φαίνεται πιο εντυπωσιακό.

Βαθιά μάθηση - (βαθιά μάθηση, αγγλικά Βαθιά μάθηση) - ένα σύνολο μεθόδων μηχανικής μάθησης (με έναν δάσκαλο, με μερική συμμετοχή ενός δασκάλου, χωρίς δάσκαλο, με ενίσχυση), βασισμένο σε διδακτικές αναπαραστάσεις και μη εξειδικευμένους αλγορίθμους για συγκεκριμένα καθήκοντα.

Μην νομίζετε ότι η έννοια και οι βασικές αρχέςΗ μηχανική μάθηση εμφανίστηκε μόνο πριν από μερικά χρόνια. Στην πραγματικότητα, είναι τόσα πολλά χρόνια που πολλοί από μας δεν γεννήθηκαν ακόμη. Οι βασικές αρχές των συστημάτων βαθιάς μάθησης και τα μαθηματικά μοντέλα για τη δουλειά τους ήταν γνωστά από τη δεκαετία του 80 του περασμένου αιώνα.

Εκείνη την εποχή δεν είχαν τέτοια αίσθηση λόγω τουέλλειψη ενός σημαντικού στοιχείου. Ήταν μια υψηλή υπολογιστική ισχύς. Μόνο στη μέση των δύο χιλίων εμφανίστηκαν συστήματα που μπορούν να βοηθήσουν να εργαστούν προς αυτή την κατεύθυνση και να σας επιτρέψουν να υπολογίσετε όλες τις απαραίτητες πληροφορίες. Τώρα οι μηχανές αναπτύχθηκαν ακόμη περισσότερο και ορισμένα συστήματα μηχανικής όρασης, φωνητικής αντίληψης και μερικών άλλων λειτουργούν τόσο αποτελεσματικά ώστε ακόμη και μερικές φορές ξεπερνούν τις δυνατότητες του ανθρώπου. Παρόλο που δεν έχουν ακόμη «φυτευτεί» σε υπεύθυνες περιοχές, καθιστώντας τους μια προσθήκη στις ανθρώπινες ικανότητες διατηρώντας ταυτόχρονα τον έλεγχο τους.

Τους διδάσκουμε, αλλά πώς θα χρησιμοποιήσουν τις γνώσεις και τις ικανότητές τους;

Τι είναι βαθιά; Πότε εμφανίστηκε το Deepfake;

Είναι εύκολο να υποθέσουμε ότι το Deepfake είναι μικρότα παιχνίδια που σχετίζονται με την Deep Learning και τα πολύ ψεύτικα που μίλησα παραπάνω. Δηλαδή, ο Deepfake πρέπει να πάρει το ψεύτικο σε ένα νέο επίπεδο και να ανακουφίσει το άτομο σε αυτό το δύσκολο θέμα, επιτρέποντάς του να δημιουργήσει ψεύτικο περιεχόμενο χωρίς να σπαταλάει ενέργεια σε αυτό.

Πρώτα απ 'όλα, τέτοιες απομιμήσεις σχετίζονται με το βίντεο. Δηλαδή, κάθε άτομο θα είναι σε θέση να καθίσει μπροστά από την κάμερα, να πει κάτι, και το πρόσωπό του θα αντικατασταθεί από άλλο άτομο. Φαίνεται τρομακτικό, διότι, στην πραγματικότητα, θα είναι απλώς απαραίτητο να κατανοήσουμε τις βασικές κινήσεις ενός ατόμου και θα είναι απλώς αδύνατο να διακρίνουμε ψεύτικο. Ας δούμε πώς ξεκίνησαν όλα.

Το πρώτο γενετικό αμφιλεγόμενο νευρωνικό δίκτυο ήτανπου δημιουργήθηκε από φοιτητή στο πανεπιστήμιο του Stanford. Αυτό συνέβη το 2014, και το όνομα του μαθητή ήταν ο Jan Goodfellow. Στην πραγματικότητα, έσπρωξε μαζί δύο νευρωνικά δίκτυα, ένα από τα οποία ασχολήθηκε με τη γενιά των προσώπων, και το δεύτερο ανέλυσε και είπε ότι ήταν παρόμοιο ή όχι. Έτσι δίδαξαν ο ένας τον άλλον και μια ωραία μέρα το δεύτερο νευρωνικό δίκτυο άρχισε να συγχέεται και να παίρνει τις παραγόμενες εικόνες για πραγματικές. Είναι ένα τέτοιο διαρκώς πολύπλοκο σύστημα που δημιουργεί το Deepfake.

Τώρα ένας από τους κύριους υποστηρικτές της ιδέαςΤο Deepfake είναι Hao Li (Hao Li). Ασχολείται όχι μόνο με αυτό, αλλά και με πολλά άλλα πράγματα. Για το σκοπό αυτό, απονεμήθηκε επανειλημμένα διάφορα βραβεία, συμπεριλαμβανομένων των ανεπίσημων. Με την ευκαιρία, είναι ένας από εκείνους που πρέπει να σας πω ευχαριστώ για την εμφάνιση ενός animoji στο iPhone X. Εάν ενδιαφέρεστε, στην ιστοσελίδα του μπορείτε να εξοικειωθείτε με τον ίδιο λεπτομερέστερα. Σήμερα, δεν είναι το κύριο θέμα της συζήτησης.

Θυμήσαμε γι 'αυτόν μόνο γιατίστο Παγκόσμιο Οικονομικό Φόρουμ του Νταβός, παρουσίασε την αίτησή του, η οποία θα αντικαταστήσει το πρόσωπο ενός ατόμου που κάθεται μπροστά από την κάμερα με οποιοδήποτε άλλο πρόσωπο. Συγκεκριμένα, έδειξε πώς λειτουργεί το σύστημα με το παράδειγμα των προσώπων του Leonardo DiCaprio, του Will Smith και άλλων διάσημων ανθρώπων.

Με τέτοιες τεχνολογίες, το κύριο πράγμα είναι η σάρωση, και τότε είναι θέμα τεχνολογίας. Με την αληθινή έννοια της λέξης.

Μπορείτε να φανταστείτε την αντίθετη κατάσταση, πότεένα πραγματικό πρόσωπο θα πει κάτι, και στη συνέχεια θα βεβαιώσει όλοι ότι ήταν πλαισιωμένο. Πώς να είστε σε αυτή την κατάσταση δεν είναι επίσης πολύ ξεκάθαρο. Αυτό θα κάνει ένα τέτοιο χάος στις ειδήσεις των ειδήσεων ότι απλά δεν λειτουργεί για να το ελέγξει διπλά σε άλλη πηγή. Ως αποτέλεσμα, θα γίνει γενικά ασαφές τι είναι αλήθεια και τι είναι ψευδής σε αυτόν τον κόσμο. Μια εικόνα αναδύεται από ταινίες για ένα σκοτεινό μέλλον, όπως το Surrogates ή το Terminator, όπου ο T-1000 εισήχθη από άλλους ανθρώπους και, μεταξύ άλλων, ονομάστηκε John Conor εξ ονόματος της υιοθεσίας μητέρας του.

Τώρα δεν μιλώ ακόμη για άλλη κατάχρηση που θα μας επιτρέψει να συλλέξουμε ψευδή στοιχεία. Σε αυτό το πλαίσιο, όλη η διασκέδαση του παιχνιδιού γίνεται πολύ αμφίβολη.

Πώς να προσδιορίσετε το Deepfake;

Το πρόβλημα δεν είναι ότι απαιτούνται τέτοια συστήματανα απαγορεύσει, αλλά στο γεγονός ότι αυτό δεν είναι πλέον δυνατό. Υπάρχουν ήδη και η ανάπτυξη τεχνολογιών, συμπεριλαμβανομένης της ανάγνωσης προσώπων, οδήγησε στην εμφάνιση και την εξάπλωση του ανοιχτού κώδικα. Ακόμα και αν φανταστείτε ότι το σύστημα με την τρέχουσα μορφή του θα σταματήσει να υπάρχει, πρέπει να καταλάβετε ότι θα επαναδημιουργηθεί. Μόλις πάλι θα διδάξουν τα νευρωνικά δίκτυα να δουλέψουν μεταξύ τους και αυτό είναι όλο.

Όταν τα νευρωνικά δίκτυα ξεφύγουν από τον έλεγχο, μπορείτε να το μάθετε από το τηλεοπτικό κανάλι ειδήσεών μας. Συμμετοχή πριν είναι πολύ αργά.

Μέχρι τα πάντα είναι τόσο τρομακτικό, και να καθορίσει το ψεύτικοΜπορείτε κυριολεκτικά με γυμνό μάτι. Η εικόνα είναι παρόμοια, αλλά είναι μάλλον τραχύ. Επιπλέον, μερικές φορές έχει κάποια προβλήματα με το συνδυασμό, ειδικά κατά μήκος των ορίων του προσώπου. Αλλά τίποτα δεν σταματάει και η ανάπτυξη ακόμα περισσότερο δεν είναι καθόλου δύσκολη. Το ίδιο Hao Li είναι σίγουρο ότι αυτό δεν θα διαρκέσει περισσότερο από μερικούς μήνες και για να δημιουργηθούν "μάσκες" που ακόμα και ένας υπολογιστής δεν μπορεί να διακρίνει, χρειάζονται αρκετά ακόμα χρόνια. Μετά από αυτό, δεν θα υπάρξει επιστροφή.

Από τη μία πλευρά, μπορεί να προστατεύσει από αυτό.έναν αλγόριθμο που ήδη δημιουργούν το YouTube και το Facebook. Παρεμπιπτόντως, ο τελευταίος άνοιξε ακόμη ένα διαγωνισμό για την ανάπτυξη της τεχνολογίας αναγνώρισης - το Deepfake Detection Challenge ("Το έργο της αναγνώρισης των dipfakes"). Το χρηματικό έπαθλο αυτού του διαγωνισμού ανέρχεται σε 10 εκατομμύρια δολάρια. Ο ανταγωνισμός είναι ήδη σε εξέλιξη και θα ολοκληρωθεί τον Μάρτιο του 2020. Μπορείτε ακόμα να έχετε χρόνο για να συμμετάσχετε.

Η αντικατάσταση ενός προσώπου σε ένα βίντεο δεν αποτελεί πλέον πρόβλημα.

Ίσως αυτή η γενναιοδωρία οφείλεται σε ψεύτικο βίντεο με τον ίδιο τον Mark Zuckerberg. Εάν τα δύο αυτά πράγματα είναι συνδεδεμένα, η εμφάνιση ενός τέτοιου διαγωνισμού δεν προκαλεί έκπληξη.

Αν το άτομο που έχει αντικατασταθεί είναι πλήρωςταιριάζει με το πρωτότυπο, η αντίθετη δύναμη στο πρόσωπο ενός ειδικού νευρικού δικτύου θα είναι ανίσχυρη. Σε αυτή την περίπτωση, θα πρέπει να πάρει τις ελάχιστες διαφορές στις εκφράσεις του προσώπου, τις κινήσεις και τον τρόπο ομιλίας. Στην περίπτωση των διάσημων ανθρώπων, αυτό το πρόβλημα θα λυθεί στο επίπεδο των υπηρεσιών βίντεο, καθώς το ίδιο YouTube ξέρει πώς κινείται ο υπό όρους Donald Trump. Όταν πρόκειται για ένα λιγότερο γνωστό άτομο, θα είναι πιο δύσκολο. Παρόλο που αυτό μπορεί να αποδειχθεί και με τη φύτευση μπροστά από την κάμερα και τη διεξαγωγή μιας περιστασιακής συνομιλίας, ενώ το νευρικό δίκτυο αναλύει τις κινήσεις του. Θα αποδειχθεί κάτι σαν να μελετάτε ένα δακτυλικό αποτύπωμα, αλλά, όπως βλέπουμε, αυτό θα οδηγήσει και πάλι σε άσκοπες δυσκολίες.

Εάν ενσωματώσετε ένα σύστημα ελέγχου ταυτότητας βίντεοσε κάμερες, μπορούν επίσης να παρακαμφθούν. Μπορείτε να κάνετε τη φωτογραφική μηχανή να σημάνει το βιντεοκασέτα και είναι σαφές ότι δεν γίνεται λήψη μέσω ξεχωριστής εφαρμογής ή επεξεργασίας σε ειδικό πρόγραμμα. Αλλά τι σε αυτή την περίπτωση είναι με τα βίντεο που απλά επεξεργάστηκαν. Για παράδειγμα, μια συναρπαστική συνέντευξη. Στην έξοδο λαμβάνουμε ένα βίντεο στο οποίο δεν θα υπάρχει πια εκείνο το κλειδί πηγής.

Μερικά μιμίδια στο τέλος.

Scary μελλοντικό σενάριο

Είναι δυνατόν να πούμε ότι έχουμε σκιαγραφήσει ένα από αυτάσενάρια για ένα θαυμάσιο μέλλον; Γενικά, ναι. Εάν οι τεχνολογίες που δημιουργήθηκαν για την επίτευξη καλών στόχων ξεφύγουν από τον έλεγχο, μπορείτε να πιείτε τη λύπη μαζί τους. Στην πραγματικότητα, υπάρχουν πολλές επιλογές για τέτοιες επικίνδυνες τεχνολογίες, αλλά οι περισσότεροι από αυτούς προστατεύονται. Για παράδειγμα, πυρηνική σύντηξη. Εδώ έχουμε να κάνουμε με κώδικα που μπορεί κανείς να πάρει.

Γράψτε στα σχόλια την προστασία που βλέπετε.από απομιμήσεις, δεδομένου ότι το σύστημα κάλυψης ήταν σε θέση να κάνει τις μάσκες εντελώς πανομοιότυπες με τις αρχικές όψεις. Και εξαιτίας του γεγονότος ότι βρίσκονται στο βίντεο, κανείς δεν μπορεί να εφαρμόσει ακόμη και την αναγνώριση του βάθους και του όγκου τους. Επιπλέον, υποθέστε ότι οποιοσδήποτε κώδικας και κλειδί που είναι ενσωματωμένος στην εικόνα μπορεί να σπάσει. Όπως λέει η παροιμία, θα ήταν για αυτό. Τώρα μπορούμε να συζητήσουμε όλες τις εισαγωγικές σημειώσεις.

</ p>