Η τεχνολογία Deepfake μπορεί να είναι διασκεδαστικό να παίζεις, αλλά η πιθανότητα πρόκλησης βλάβης είναι σημαντική. Δείτε τι μπορεί να φέρει το μέλλον των deepfakes.

Τα ενδεικτικά σημάδια μιας βαθιάς ψεύτικης εικόνας ήταν εύκολο να εντοπιστούν, αλλά η γενετική τεχνητή νοημοσύνη μας κάνει να αμφισβητούμε σχεδόν όλα όσα βλέπουμε και ακούμε τώρα. Με κάθε νέο μοντέλο τεχνητής νοημοσύνης που κυκλοφορεί, τα ενδεικτικά σημάδια μιας ψεύτικης εικόνας μειώνονται, και σύγχυση, μπορείτε τώρα να δημιουργήσετε βαθιά ψεύτικα βίντεο, κλώνους φωνής των αγαπημένων σας προσώπων και να δημιουργήσετε ψεύτικα άρθρα απλά δευτερόλεπτα.

Για να αποφύγετε να σας ξεγελάσουν τα deepfakes τεχνητής νοημοσύνης, αξίζει να γνωρίζετε τι είδους κινδύνους θέτουν.

The Evolution of Deepfakes

Ένα deepfake δείχνει ένα άτομο να κάνει κάτι που δεν συνέβη ποτέ στην πραγματική ζωή. Είναι εντελώς ψεύτικο. Γελάμε με τα deepfakes όταν κοινοποιούνται στο διαδίκτυο ως μιμίδιο ή αστείο, αλλά πολύ λίγοι άνθρωποι βρίσκουν αστείο όταν συνηθίζουν να μας παραπλανούν.

instagram viewer

Στο παρελθόν, τα deepfakes δημιουργήθηκαν με τη λήψη μιας υπάρχουσας φωτογραφίας και την αλλαγή της σε ένα λογισμικό επεξεργασίας εικόνων όπως το Photoshop. Αλλά αυτό που ξεχωρίζει ένα deepfake AI είναι ότι μπορεί να δημιουργηθεί από την αρχή χρησιμοποιώντας αλγόριθμους βαθιάς εκμάθησης.

ο Λεξικό Merriam-Webster ορίζει ένα deepfake ως:

Μια εικόνα ή ηχογράφηση που έχει τροποποιηθεί και χειραγωγηθεί πειστικά για να παραποιηθεί κάποιος ότι κάνει ή λέει κάτι που στην πραγματικότητα δεν έγινε ή δεν ειπώθηκε.

Αλλά με την πρόοδο στην τεχνολογία AI, αυτός ο ορισμός αρχίζει να φαίνεται ξεπερασμένος. Με τη χρήση εργαλείων AI, τα deepfakes περιλαμβάνουν πλέον εικόνες, κείμενο, βίντεο και κλωνοποίηση φωνής. Μερικές φορές, και οι τέσσερις τρόποι δημιουργίας AI χρησιμοποιούνται ταυτόχρονα.

Επειδή είναι μια αυτοματοποιημένη διαδικασία που είναι απίστευτα γρήγορη και φθηνή στη χρήση, είναι το τέλειο εργαλείο για την ανάδευση Deepfakes με ρυθμό που δεν έχουμε ξαναδεί—όλα χωρίς να χρειάζεται να ξέρετε τίποτα για το πώς να επεξεργάζεστε φωτογραφίες, βίντεο ή ήχου.

Οι μεγάλοι κίνδυνοι του AI Deepfakes

Ένας πλήθος από Γεννήτριες βίντεο AI υπάρχουν ήδη, μαζί με πολλά Γεννήτριες φωνής AI. Ρίξτε μέσα ένα μοντέλο μεγάλης γλώσσας όπως το GPT-4 και έχετε μια συνταγή για τη δημιουργία των πιο πιστευτών deepfakes που έχουμε δει στη σύγχρονη ιστορία μέχρι τώρα.

Η επίγνωση των διαφορετικών ειδών τεχνητής νοημοσύνης και του τρόπου με τον οποίο μπορούν να χρησιμοποιηθούν για να σας εξαπατήσουν, είναι ένας τρόπος για να αποφύγετε την παραπλάνηση. Ακολουθούν μερικά μόνο σοβαρά παραδείγματα για το πώς η τεχνολογία deepfake AI αποτελεί πραγματική απειλή.

1. Κλοπή ταυτότητας AI

Μπορεί να τα έχετε δει. Μεταξύ των πρώτων πραγματικά viral deepfakes τεχνητής νοημοσύνης που διαδόθηκαν σε όλο τον κόσμο ήταν μια εικόνα του Ντόναλντ Τραμπ που συνελήφθη και ένας του Πάπα Φραγκίσκου με ένα λευκό τζάκετ.

Ενώ φαίνεται σαν μια αθώα αναθεώρηση του τι μπορεί να φορέσει μια διάσημη θρησκευτική φιγούρα για να φορέσει μια κρύα μέρα στη Ρώμη. Η άλλη εικόνα, που δείχνει μια πολιτική προσωπικότητα σε σοβαρή κατάσταση με το νόμο, έχει πολύ μεγαλύτερες συνέπειες αν εκληφθεί ως πραγματική.

Μέχρι στιγμής, οι άνθρωποι έχουν στοχεύσει κυρίως διασημότητες, πολιτικές προσωπικότητες και άλλα διάσημα άτομα όταν δημιουργούσαν deepfakes AI. Εν μέρει, αυτό συμβαίνει επειδή διάσημα άτομα έχουν πολλές φωτογραφίες τους στο Διαδίκτυο που πιθανότατα βοήθησαν στην εκπαίδευση του μοντέλου στην πρώτη θέση.

Στην περίπτωση μιας συσκευής δημιουργίας εικόνων τεχνητής νοημοσύνης όπως το Midjourney - που χρησιμοποιείται τόσο στο deepfake του Τραμπ όσο και στον Πάπα - ένας χρήστης χρειάζεται απλώς να εισάγει κείμενο που να περιγράφει αυτό που θέλει να δει. Οι λέξεις-κλειδιά μπορούν να χρησιμοποιηθούν για τον καθορισμό του στυλ τέχνης, όπως μια φωτογραφία ή ο φωτορεαλισμός, και τα αποτελέσματα μπορούν να βελτιωθούν με την αναβάθμιση της ανάλυσης.

Μπορείς το ίδιο εύκολα μάθετε να χρησιμοποιείτε το Midjourney και δοκιμάστε το μόνοι σας, αλλά για προφανείς ηθικούς και νομικούς λόγους, θα πρέπει να αποφύγετε να δημοσιεύσετε αυτές τις εικόνες δημόσια.

Δυστυχώς, το να είσαι ένας μέσος, μη διάσημος άνθρωπος δεν εγγυάται ότι είσαι ασφαλής από τα βαθιά πλαστά τεχνητής νοημοσύνης.

Το πρόβλημα έγκειται σε ένα βασικό χαρακτηριστικό που προσφέρουν οι γεννήτριες εικόνων AI: τη δυνατότητα να ανεβάσετε τη δική σας εικόνα και να την χειριστείτε με AI. Και ένα εργαλείο σαν Outpainting στο DALL-E 2 μπορεί να επεκτείνει μια υπάρχουσα εικόνα πέρα ​​από τα σύνορά της εισάγοντας μια προτροπή κειμένου και περιγράφοντας τι άλλο θα θέλατε να δημιουργήσετε.

Αν κάποιος άλλος το έκανε αυτό με τις φωτογραφίες σας, οι κίνδυνοι θα μπορούσαν να είναι πολύ μεγαλύτεροι από το deepfake του Πάπα με ένα λευκό σακάκι—μπορεί να το χρησιμοποιήσει οπουδήποτε, προσποιούμενος ότι είστε εσείς. Ενώ οι περισσότεροι άνθρωποι χρησιμοποιούν γενικά την τεχνητή νοημοσύνη με καλές προθέσεις, υπάρχουν πολύ λίγοι περιορισμοί που εμποδίζουν τους ανθρώπους να το χρησιμοποιούν για να προκαλέσουν βλάβη, ειδικά σε περιπτώσεις κλοπής ταυτότητας.

2. Απάτες Deepfake Voice Clone

Με τη βοήθεια της τεχνητής νοημοσύνης, τα deepfakes έχουν ξεπεράσει τα όρια για τα οποία οι περισσότεροι από εμάς δεν ήμασταν προετοιμασμένοι: ψεύτικοι κλώνοι φωνής. Με μια μικρή ποσότητα πρωτότυπου ήχου—ίσως από ένα βίντεο TikTok που δημοσιεύσατε κάποτε ή ένα βίντεο YouTube στο οποίο εμφανίζεστε—ένα μοντέλο τεχνητής νοημοσύνης μπορεί να αναπαράγει τη μοναδική φωνή σας.

Είναι παράξενο και τρομακτικό να φαντάζεσαι ότι λαμβάνεις ένα τηλεφώνημα που ακούγεται σαν μέλος της οικογένειας, φίλος ή συνάδελφος. Deepfake κλώνοι φωνής είναι μια αρκετά σοβαρή ανησυχία ότι το Ομοσπονδιακή Επιτροπή Εμπορίου (FTC) έχει εκδώσει προειδοποίηση σχετικά.

Μην εμπιστεύεστε τη φωνή. Καλέστε το άτομο που υποτίθεται ότι επικοινώνησε μαζί σας και επαληθεύστε την ιστορία. Χρησιμοποιήστε έναν αριθμό τηλεφώνου που γνωρίζετε ότι είναι δικός τους. Εάν δεν μπορείτε να προσεγγίσετε το αγαπημένο σας πρόσωπο, προσπαθήστε να έρθετε σε επαφή μαζί του μέσω ενός άλλου μέλους της οικογένειας ή των φίλων του.

ανέφερε η Washington Post περίπτωση ενός ζευγαριού γύρω στα 70 που έλαβε ένα τηλεφώνημα από κάποιον που ακουγόταν ακριβώς σαν τον εγγονό του. Ήταν στη φυλακή και χρειαζόταν επειγόντως χρήματα για εγγύηση. Μη έχοντας άλλο λόγο να αμφιβάλλουν με ποιον μιλούσαν, προχώρησαν και παρέδωσαν τα χρήματα στον απατεώνα.

Δεν είναι μόνο η παλαιότερη γενιά που κινδυνεύει, ανέφερε ο Guardian ένα άλλο παράδειγμα διαχειριστή τράπεζας που ενέκρινε μια συναλλαγή 35 εκατομμυρίων δολαρίων μετά από μια σειρά «ψεύτικων κλήσεων» από κάποιον που πίστευαν ότι ήταν διευθυντής τράπεζας.

3. Fake News Μαζικής Παραγωγής

Μεγάλα γλωσσικά μοντέλα, όπως ChatGPT είναι πολύ, πολύ καλοί στην παραγωγή κειμένου που ακούγεται σαν άνθρωπος και προς το παρόν δεν έχουμε αποτελεσματικά εργαλεία για να εντοπίσουμε τη διαφορά. Σε λάθος χέρια, οι ψεύτικες ειδήσεις και οι θεωρίες συνωμοσίας θα είναι φθηνό να παραχθούν και θα χρειαστεί περισσότερος χρόνος για να απομυθοποιηθούν.

Η διάδοση παραπληροφόρησης δεν είναι κάτι νέο φυσικά, αλλά μια ερευνητική εργασία δημοσιεύτηκε στο arXiv τον Ιανουάριο του 2023 εξηγεί ότι το πρόβλημα έγκειται στο πόσο εύκολο είναι να κλιμακωθεί η έξοδος με εργαλεία τεχνητής νοημοσύνης. Το αναφέρουν ως "εκστρατείες επιρροής που δημιουργούνται από την τεχνητή νοημοσύνη", οι οποίες λένε ότι θα μπορούσαν, για παράδειγμα, να χρησιμοποιηθούν από πολιτικούς για την εξωτερική ανάθεση των πολιτικών τους εκστρατειών.

Ο συνδυασμός περισσότερων από μία πηγών που δημιουργούνται από AI δημιουργεί ένα βαθύ ψεύτικο υψηλού επιπέδου. Για παράδειγμα, ένα μοντέλο τεχνητής νοημοσύνης μπορεί να δημιουργήσει μια καλογραμμένη και πειστική είδηση ​​που θα συνοδεύεται από την ψεύτικη εικόνα του Ντόναλντ Τραμπ που συνελήφθη. Αυτό του δίνει περισσότερη νομιμότητα από ό, τι αν η εικόνα κοινοποιούνταν μόνη της.

Οι ψεύτικες ειδήσεις δεν περιορίζονται επίσης σε εικόνες και γραπτά, οι εξελίξεις στη δημιουργία βίντεο με τεχνητή νοημοσύνη σημαίνουν ότι βλέπουμε περισσότερα βαθιά ψευδή βίντεο να εμφανίζονται. Εδώ είναι ένα από τον Ρόμπερτ Ντάουνι Τζούνιορ που μπολιάστηκε σε ένα βίντεο του Έλον Μασκ, που δημοσιεύτηκε από το Κανάλι YouTube Deepfakery.

Η δημιουργία ενός deepfake μπορεί να είναι τόσο απλή όσο η λήψη μιας εφαρμογής. Μπορείτε να χρησιμοποιήσετε μια εφαρμογή όπως TokkingHeads για να μετατρέψετε στατικές εικόνες σε κινούμενα avatar, που σας επιτρέπει να ανεβάσετε τη δική σας εικόνα και ήχο για να φαίνεται ότι το άτομο μιλάει.

Ως επί το πλείστον, είναι διασκεδαστικό και διασκεδαστικό, αλλά υπάρχει επίσης πιθανότητα για προβλήματα. Μας δείχνει πόσο εύκολο είναι να χρησιμοποιήσουμε την εικόνα οποιουδήποτε για να φαίνεται ότι το άτομο αυτό πρόφερε λέξεις που δεν μίλησε ποτέ.

Μην ξεγελαστείτε από ένα AI Deepfake

Τα Deepfakes μπορούν να αναπτυχθούν γρήγορα με πολύ μικρό κόστος και με χαμηλή τεχνογνωσία ή απαιτούμενη υπολογιστική ισχύ. Μπορούν να λάβουν το σχήμα μιας παραγόμενης εικόνας, ενός κλώνου φωνής ή ενός συνδυασμού εικόνων, ήχου και κειμένου που δημιουργούνται από AI.

Κάποτε ήταν πολύ πιο δύσκολο και απαιτητικό να δημιουργηθεί ένα deepfake, αλλά τώρα, με πολλές εφαρμογές AI εκεί έξω, σχεδόν οποιοσδήποτε έχει πρόσβαση στα εργαλεία που χρησιμοποιούνται για τη δημιουργία deepfake. Καθώς η τεχνολογία deepfake AI γίνεται όλο και πιο προηγμένη, αξίζει να παρακολουθείτε στενά τους κινδύνους που εγκυμονεί.