Deepfakes και βίντεο που δημιουργούνται από AI είναι εδώ για να μείνουν. Αλλά τα τελευταία χρόνια, έχουν αυξηθεί σε ποιότητα και ποσότητα, κάνοντας πολλούς ανθρώπους να ανησυχούν για την εθνική ασφάλεια και την προσωπική ιδιωτικότητα.

Ωστόσο, ανεξάρτητα από το πόσο σκληρά ανώνυμοι διαδικτυακοί χρήστες προσπάθησαν να κάνουν το ψεύτικο βίντεο τους ρεαλιστικό, δεν θα μπορούσαν ποτέ να ξεπεράσουν το προηγμένο λογισμικό αναγνώρισης προσώπου. Μέχρι τώρα.

Fooling Face Recognition API

Ερευνητές στο Πανεπιστήμιο Sungkyunkwan στο Suwon, Νότια Κορέα, δοκίμασε την ποιότητα της τρέχουσας τεχνολογίας deepfake. Δοκίμασαν τόσο τα API της Amazon όσο και της Microsoft χρησιμοποιώντας λογισμικό ανοιχτού κώδικα και κοινώς χρησιμοποιούμενο λογισμικό δημιουργίας βίντεο με βαθιά ψεύτικη εικόνα για να δουν πόσο καλά αποδίδουν.

Οι ερευνητές χρησιμοποίησαν τα πρόσωπα διασημοτήτων του Χόλιγουντ. Για να δημιουργήσει στερεά deepfakes, το λογισμικό χρειάζεται πολλές εικόνες υψηλής ποιότητας από διαφορετικές γωνίες των ίδιων προσώπων, οι οποίες είναι πολύ πιο εύκολο να αποκτηθούν από διασημότητες αντί για συνηθισμένες Ανθρωποι.

instagram viewer

Οι ερευνητές αποφάσισαν επίσης να χρησιμοποιήσουν το API της Microsoft και της Amazon ως σημεία αναφοράς για τη μελέτη τους, καθώς και οι δύο εταιρείες προσφέρουν υπηρεσίες αναγνώρισης προσώπων διασημοτήτων. Χρησιμοποίησαν δημόσια διαθέσιμα σύνολα δεδομένων και δημιούργησαν μόλις πάνω από 8.000 deepfakes. Από κάθε βαθύ ψεύτικο βίντεο, έβγαλαν πολλαπλές προσόψεις και το υπέβαλαν στα API είναι υπό αμφισβήτηση.

Με τις υπηρεσίες Azure Cognitive Services της Microsoft, οι ερευνητές κατάφεραν να ξεγελάσουν το σύστημα 78 τοις εκατό του χρόνου χρησιμοποιώντας deepfakes. Τα αποτελέσματα της Amazon ήταν ελαφρώς καλύτερα, με το 68 % των προσώπων που υποβλήθηκαν να αναγνωρίζονται ως πραγματικά.

Τι γίνεται με τους ανιχνευτές Deepfake;

Οι ανιχνευτές Deepfake λειτουργούν λίγο πολύ με τον ίδιο τρόπο όπως οι deepfake. Οι ανιχνευτές είναι λογισμικό που εκπαιδεύτηκε χρησιμοποιώντας μοντέλα μηχανικής εκμάθησης για τον τρόπο ανίχνευσης βίντεο ψεύτικων βίντεο.

Αντί όμως να επικεντρωθούμε στη δημιουργία ενός υπερ-ρεαλιστικού βίντεο για να ξεγελάσουμε τους ανιχνευτές, τα deepfakes μπορούν πλέον να περιλαμβάνουν εχθρικά παραδείγματα σε κάθε καρέ για να μπερδέψουν το σύστημα τεχνητής νοημοσύνης. Στην πραγματικότητα, οι επιθέσεις τέτοιου τύπου έχουν βαθμούς επιτυχίας που κυμαίνονται από 78 έως 99 τοις εκατό.

Γίνεται χειρότερο

Τα Deepfakes είναι μια εφαρμογή μηχανικής εκμάθησης. Για να δημιουργήσετε ένα που θα σας πείσει από απόσταση, χρειάζεστε εκατοντάδες εικόνες του προσώπου του ίδιου ατόμου από διαφορετικές οπτικές γωνίες και εμφανίζουν διάφορα συναισθήματα.

Λόγω της ανάγκης για τεράστια ποσά δεδομένων, θα πίστευε κανείς ότι μόνο τα άτομα με μεγάλη παρουσία στο διαδίκτυο κινδυνεύουν, όπως οι διασημότητες και οι πολιτικοί. Αλλά αυτό δεν ισχύει πλέον.

Σύμφωνα με την Deeptrace, ο αριθμός των διαδικτυακών αποκλίσεων αυξήθηκε κατά 330 τοις εκατό σε λιγότερο από ένα χρόνο - από τον Οκτώβριο του 2019 έως τον Ιούνιο του 2020. Για να μην αναφέρουμε, το λογισμικό και οι αλγόριθμοι που χρησιμοποιούν οι κατασκευαστές deepfake γίνονται ισχυρότεροι και πιο άμεσα διαθέσιμοι και προσβάσιμοι.

Ποιος κινδυνεύει από Deepfakes;

Όταν τα deepfakes έγιναν για πρώτη φορά mainstream, τα πρωταρχικά οι ανησυχίες αφορούσαν την ιδιωτικότητα και την εθνική ασφάλεια. Ο κόσμος φοβόταν ότι τα βίντεο με πολιτικούς και επίσημους κυβερνητικούς υπαλλήλους δεν μπορούσαν πλέον να εμπιστευτούν.

Όμως, ενώ θα ήταν ανεύθυνο να αγνοήσουμε τον κίνδυνο για την ασφάλεια, η πολλαπλή έρευνα, πολλαπλές έρευνες διαπίστωσαν ότι οι κατασκευαστές ψεύτικων ψευδώνυμων δεν ενδιαφέρονται ακόμη για την ταραχή της πολιτικής. Η πλειοψηφία των διαδικτυακών βίντεο deepfakes μπορούν να χωριστούν σε δύο κατηγορίες: αστεία βίντεο από συνεντεύξεις διασημοτήτων και ταινίες και πορνογραφικό υλικό.

Ενώ η πρόσφατη μελέτη διεξήχθη χρησιμοποιώντας πρόσωπα διασημοτήτων για να διασφαλιστεί ότι τα deepfakes ήταν υψηλής ποιότητας για να ξεγελάσουν τα API, αυτό δεν σημαίνει ότι δεν μπορείτε να κάνετε deepfakes με λιγότερα δεδομένα. Σίγουρα, μπορεί να μην έχουν την ευκαιρία να ξεγελάσουν τα προηγμένα συστήματα αναγνώρισης προσώπου, αλλά μπορεί να είναι αρκετά πειστικά για να ξεγελάσουν άλλους ανθρώπους.

Στις μέρες μας, τα βαθιά ψεύτικα οποιουδήποτε με κοινωνική παρουσία μπορούν να γίνουν πειστικά. Το μόνο που χρειάζονται είναι μερικές φωτογραφίες σας και ίσως ένα βίντεο στο οποίο εμφανίζεστε. Το βαθύ ψεύτικο που προκύπτει μπορεί να είναι χαμηλής ποιότητας, αλλά είναι ακόμα εφικτό και μπορεί να είναι επιζήμιο.

Το μέλλον είναι ακόμα άγνωστο

Υπάρχουν πολλές αντιφατικές προβλέψεις σχετικά με την κατάσταση των deepfakes, καθώς δεν εξαφανίζονται σύντομα.

Κάποιοι αναμένουν ένα αποκαλυπτικό μέλλον στον κυβερνοχώρο όπου δεν μπορείτε να εμπιστευτείτε κανένα πλάνο που θα συναντήσετε στο διαδίκτυο. Άλλοι είναι πιο αισιόδοξοι, συγκρίνοντας τα deepfake με τα κινούμενα σχέδια και λέγοντας ότι μπορεί να έχει μέλλον στην παραγωγή περιεχομένου.

ΜερίδιοΤιτίβισμαΗΛΕΚΤΡΟΝΙΚΗ ΔΙΕΥΘΥΝΣΗ
Πώς να προστατευθείτε από Deepfake Videos

Τα Deepfakes γίνονται πιο διαδεδομένα. Δείτε πώς μπορούν να απειλήσουν το απόρρητό σας στο διαδίκτυο και πώς να αποφύγετε την πρόσληψη.

Διαβάστε Επόμενο

Σχετικά θέματα
  • Ασφάλεια
  • Διαδίκτυο
  • Αναγνώριση προσώπου
  • Ηλεκτρονικό απόρρητο
  • Online Ασφάλεια
Σχετικά με τον Συγγραφέα
Ανίνα Οτ (Δημοσιεύθηκαν 52 άρθρα)

Η Anina είναι ανεξάρτητος συγγραφέας τεχνολογίας και ασφάλειας διαδικτύου στο MakeUseOf. Άρχισε να γράφει στην ασφάλεια στον κυβερνοχώρο πριν από 3 χρόνια με την ελπίδα να γίνει πιο προσιτή στον μέσο άνθρωπο. Λατρεύω να μαθαίνω νέα πράγματα και ένα τεράστιο σπασίκλα αστρονομίας.

Περισσότερα από την Anina Ot

Εγγραφείτε στο newsletter μας

Εγγραφείτε στο ενημερωτικό μας δελτίο για τεχνικές συμβουλές, κριτικές, δωρεάν ebooks και αποκλειστικές προσφορές!

Κάντε κλικ εδώ για εγγραφή