Η τεχνητή νοημοσύνη και η μηχανική μάθηση μπορούν να κάνουν θαύματα, από τη δημιουργία τέχνης έως την αυτοματοποίηση εργασιών διαχειριστή. Αλλά αποτελούν επίσης κίνδυνο, καθώς μπορούν να ενδυναμώσουν τους κακούς ηθοποιούς με κόλπα όπως το deepfake.
Καθώς αυτή η συγκεκριμένη τεχνολογία εξελίσσεται, είναι καλή ιδέα να μάθετε πώς λειτουργούν πραγματικά τα deepfakes και ποιος θα ήθελε να τα χρησιμοποιήσει—τόσο νόμιμα όσο και παράνομα.
Γιατί είναι σημαντικό να κατανοήσουμε πώς και γιατί χρησιμοποιούνται τα Deepfakes
Οι κύριες εφαρμογές της τεχνολογίας deepfake περιστρέφονται κυρίως γύρω από αστείο, πορνογραφικό ή κινηματογραφικό υλικό, αλλά μια μελέτη απέδειξε ότι Τα deepfakes μπορούν να ξεγελάσουν την αναγνώριση προσώπου. Αυτό και μόνο είναι ένας λόγος να ανησυχείτε και να επιφυλάξετε.
Όσο περισσότερο χρησιμοποιείται η τεχνολογία στην καθημερινή ζωή και σε έργα μεγάλης κλίμακας, τόσο καλύτερα οι προγραμματιστές της μαθαίνουν να δημιουργούν απρόσκοπτα ψεύτικα βίντεο ανθρώπων, είτε διασημοτήτων είτε μελών της οικογένειας.
Κατανόηση πώς να προστατευτείτε από τα βαθιά ψεύτικα βίντεο είναι πλέον απαραίτητο, λαμβάνοντας υπόψη πόσο ανυπόμονα οι βιομηχανίες αγκαλιάζουν τα προνόμια της τεχνολογίας, ειδικά στον τομέα της ψυχαγωγίας.
Το Χόλιγουντ το χρησιμοποίησε σε πολλά έργα πολύ πριν Η βαθιά ψεύτικη καταχώρηση AGT της Metaphysic, που έδειξε στον κόσμο πόσο γρήγορη και αποτελεσματική μπορεί να είναι η δημιουργία deepfake. Να τι περιλαμβάνει η διαδικασία.
Πώς λειτουργούν τα Deepfakes;
Όσον αφορά το τι κρύβεται πίσω από τα deepfakes, μια ένδειξη βρίσκεται στο όνομα: βαθιά μάθηση, η επιστήμη των τεχνητών νευρωνικών δικτύων (ANNs). Αυτό που κάνουν αυτοί για τους αλγόριθμους deepfake είναι να απορροφούν δεδομένα, να μαθαίνουν από αυτά και να δημιουργούν νέα δεδομένα με τη μορφή εκφράσεων προσώπου ή ενός ολόκληρου προσώπου πάνω από το δικό σας.
Οι προγραμματιστές λογισμικού deepfake χρησιμοποιούν συνήθως έναν από τους δύο τύπους ANN: autoencoder ή Generative Adversarial Networks (GAN).
Οι αυτόματες κωδικοποιητές μαθαίνουν να αναπαράγουν τις μάζες των δεδομένων που τροφοδοτούν, κυρίως φωτογραφίες προσώπων και εκφράσεων, και αναδημιουργούν τα απαιτούμενα σύνολα δεδομένων. Ωστόσο, σπάνια είναι ακριβή αντίγραφα.
Τα GAN, από την άλλη πλευρά, έχουν ένα πιο έξυπνο σύστημα, το οποίο περιλαμβάνει μια γεννήτρια και έναν διαχωριστή. Το πρώτο αναπαράγει δεδομένα που έχουν μάθει σε deepfakes που στη συνέχεια πρέπει να ξεγελάσουν το δεύτερο.
Ο διαχωριστής συγκρίνει τις δημιουργίες της γεννήτριας με πραγματικές εικόνες και προσδιορίζει την αποτελεσματικότητά τους. Τα καλύτερα deepfakes, φυσικά, είναι αυτά που μιμούνται τέλεια την ανθρώπινη συμπεριφορά.
Λοιπόν, πώς γίνονται τα deepfakes με αυτήν την τεχνολογία; Οι αλγόριθμοι πίσω από εφαρμογές όπως Ανακαινίζω και DeepFaceLab μαθαίνουν συνεχώς από τα δεδομένα που τους περνούν, ώστε να μπορούν να προσαρμόζουν αποτελεσματικά τα χαρακτηριστικά και τις εκφράσεις του προσώπου ή να στρώνουν το ένα πρόσωπο πάνω στο άλλο.
Το λογισμικό είναι βασικά ένα πρόγραμμα επεξεργασίας βίντεο που έχει σχεδιαστεί ειδικά για να χειρίζεται πρόσωπα. Ορισμένες εφαρμογές είναι πιο περίπλοκες από άλλες, αλλά στο σύνολό σας μπορείτε να κάνετε οτιδήποτε, από το να γερνάτε κάποιον πάνω ή κάτω μέχρι να επεξεργαστείτε τον εαυτό σας σε ταινίες.
Αλλά η τεχνολογία εξακολουθεί να έχει ελαττώματα. Η δημιουργία Deepfake μπορεί να είναι πιο περίπλοκη από πώς γίνονται ψεύτικα ζωντανά βίντεο, αλλά μπορεί να είναι εξίσου εύκολο να εντοπιστεί ως ψευδές.
Πώς να εντοπίσετε ένα Deepfake
Επειδή τα deepfakes γίνονται κυρίως από μηχανές, τα χαρακτηριστικά ή οι τρόποι του ψηφιακού προσώπου δεν φαίνονται πάντα φυσικά. Μπορεί επίσης να υπάρχουν λάθη στη ρύθμιση του βίντεο. Με άλλα λόγια, μπορείτε να πείτε ψεύτικο υλικό αν ξέρετε τι να αναζητήσετε.
Εδώ είναι μερικά ενδεικτικά σημάδια:
- Αφύσικο αναβοσβήνει: Η μηχανική εκμάθηση συχνά παραβλέπει το ανοιγοκλείσιμο των ματιών ή το κάνει να φαίνεται άβολο.
- Θολά ή ασταθή χαρακτηριστικά: Τα μαλλιά, το στόμα ή το πηγούνι κάποιου μπορεί να είναι ελαφρώς θολά ή να κινούνται με περίεργους, συχνά υπερβολικούς τρόπους.
- Έλλειψη ή εσφαλμένη παρουσίαση συναισθημάτων: Τα κακά deepfakes είναι απαθή ή μιμούνται άσχημα συναισθήματα.
- Δύστροπη γλώσσα του σώματος: Εάν το άτομο στο βίντεο κινεί το κεφάλι ή το σώμα του με παραμορφωμένους ή ασύνδετους τρόπους, θα μπορούσε να είναι ψεύτικο.
- Λάθος χρώματα και φωτισμός: Οι αποχρωματισμοί, τα ανεξήγητα φώτα και οι σκιές είναι σίγουρα σημάδια ενός ψεύτικο βίντεο.
- Ασυνεπή αντικείμενα: Κατά την προσαρμογή ενός βίντεο, το λογισμικό deepfake μπορεί να κάνει λάθη, όπως να αλλάξει το σχήμα των ρούχων, των κοσμημάτων και των αντικειμένων φόντου.
- Κακός ήχος: Τα Deepfakes μπορούν να παραμορφώσουν την ομιλία και τους ήχους σε ένα βίντεο.
Κάνω από τα περισσότερα τρόποι για να εντοπίσετε τα deepfakes μαθαίνοντας για ποιον σκοπό φτιάχνονται συνήθως τέτοια βίντεο και δίνοντας μεγάλη προσοχή στις λεπτομέρειες του πλάνα που βλέπετε στο διαδίκτυο—επιβραδύνετε, αν είναι δυνατόν.
Επιπλέον, αναπτύσσονται όλο και περισσότερα εργαλεία, όπως π.χ Microsoft Authenticator και του Sensity Forensic Deepfake Detection, που αναλύει βίντεο σε λεπτό επίπεδο.
Ποιος χρησιμοποιεί Deepfakes;
Οι κινηματογραφιστές χρησιμοποιούν όλο και περισσότερο deepfakes για να γεράσουν ή να αντικαταστήσουν τα πρόσωπα των ηθοποιών, όπως στο Star Wars. Οι καλλιτέχνες καταφέρνουν να ζωντανεύουν πορτρέτα και να τους κάνουν να μιλάνε και να τραγουδούν.
Οι έμποροι πειραματίζονται με τεχνολογία deepfake για διαφημιστικό περιεχόμενο που δεν απαιτεί πρόσληψη ηθοποιών. Εταιρείες όπως το WPP το εφαρμόζουν και στα εκπαιδευτικά τους βίντεο.
Οι τεχνικοί, γενικά, δημιουργούν αστεία βίντεο όπου ανταλλάσσουν πρόσωπα με φίλους ή μοιράζουν έναν ηθοποιό πάνω από έναν άλλο σε δημοφιλείς ταινίες. Ο Sylvester Stallone έχει αναλάβει το Home Alone και ο Joker του Heath Ledger εμφανίστηκε στο A Knight's Tale.
Δυστυχώς, αν εξερευνήσετε σε τι άλλο χρησιμοποιείται η τεχνολογία deepfake, θα βρείτε πολλές κακόβουλες περιπτώσεις. Στους κατασκευαστές του Deepfake αρέσει να διαδίδουν παραπληροφόρηση και προσβλητικά μηνύματα, καθώς και να στοχεύουν διασημότητες και να τους τοποθετούν σε ταινίες για ενήλικες. Οι άνθρωποι εκβιάζονται ακόμη και με πλαστά πλάνα.
Στην τρέχουσα αχαλίνωτη μορφή του, το deepfake είναι συνώνυμο με τον κίνδυνο για τα δικαιώματα της ιδιωτικής ζωής των ανθρώπων, την ασφάλεια, και ακόμη και πνευματικά δικαιώματα, για παράδειγμα, όταν ο αλγόριθμος χρησιμοποιεί σαφώς μια φωτογραφία ή ένα έργο τέχνης που δεν είναι δημόσια διαθέσιμος.
Αυτός είναι ο λόγος που οι χώρες και οι επωνυμίες βάζουν το πόδι τους κάτω. Από το 2021, σύμφωνα με το Ο χάρτης της Cyber Civil Rights Initiative Σύμφωνα με τους νόμους για τα deepfake στις ΗΠΑ, τέσσερις πολιτείες καταπολεμούν τώρα τα δημοσιευμένα deepfake βίντεο που απεικονίζουν κάποιον με ρητό ή άλλως επιβλαβή τρόπο.
Η Κίνα κάνει επίσης κινήσεις για να ποινικοποιήσει τα deepfakes που βλάπτουν τους ανθρώπους και την κοινωνία, είτε παραβιάζοντας τα ατομικά δικαιώματα είτε διαδίδοντας ψεύτικες ειδήσεις. Ακόμη και ανακοίνωσε ο Μέτα το 2020 αυτά τα παραπλανητικά, παραποιημένα βίντεο δεν ήταν ευπρόσδεκτα.
Εκτός από τη ρύθμιση, οι επίσημοι φορείς παγκοσμίως πιέζουν για καλύτερη ανίχνευση και πρόληψη των deepfake εγκλημάτων. ο Έκθεση του Rathenau Instituut σχετικά με τον τρόπο με τον οποίο η ευρωπαϊκή πολιτική πρέπει να χειρίζεται τα βαθιά ψεύτικα εγκρίνει λογισμικό με εργαλεία όπως η αναγνώριση ηχείων και προσώπου, η ανίχνευση ζωντάνιας φωνής και η ανάλυση χαρακτηριστικών προσώπου.
Μάθετε πώς λειτουργούν τα Deepfakes για να σας παραπλανήσουν
Τα Deepfakes έχουν ήδη γίνει mainstream, καλώς ή κακώς. Απολαύστε λοιπόν τα αστεία και εμπνευσμένα βίντεο ενώ ετοιμάζεστε να αντιμετωπίσετε τυχόν κακόβουλα.
Στο τέλος της ημέρας, τι είναι ένα deepfake όπως αυτό, αλλά ένα εργαλείο που έχει σχεδιαστεί για να σας ξεγελάσει; Εάν ξέρετε τι να αναζητήσετε και πώς να αντιδράσετε, έχει λιγότερη δύναμη πάνω σας.
Για παράδειγμα, θα μπορείτε να εντοπίζετε τα deepfakes στα μέσα κοινωνικής δικτύωσης μαζί με ψεύτικες ειδήσεις και λογαριασμούς και να αποφεύγετε την παραπληροφόρηση, τις απόπειρες ηλεκτρονικού ψαρέματος και πολλά άλλα. Καθώς βελτιώνεται η τεχνολογία ανίχνευσης και πρόληψης του deepfake, θα υπάρχει περισσότερη υποστήριξη.