Η τεχνητή νοημοσύνη μπορεί να ακούγεται σαν τον Πρόεδρο. Ή μπορεί να ακούγεται σαν εσύ ή εμένα. Τι κίνδυνο για την κυβερνοασφάλεια ενέχει λοιπόν το λογισμικό κλωνοποίησης φωνής AI;

Η Τεχνητή Νοημοσύνη (AI) είναι μια ισχυρή τεχνολογία που υπόσχεται να αλλάξει τη ζωή μας. Ποτέ δεν ήταν τόσο ξεκάθαρο όσο σήμερα, όταν ισχυρά εργαλεία είναι διαθέσιμα σε οποιονδήποτε έχει σύνδεση στο Διαδίκτυο.

Αυτό περιλαμβάνει γεννήτριες φωνής AI, προηγμένο λογισμικό ικανό να μιμείται την ανθρώπινη ομιλία τόσο ικανά που μπορεί να είναι αδύνατο να γίνει διάκριση μεταξύ των δύο. Τι σημαίνει αυτό για την ασφάλεια στον κυβερνοχώρο;

Πώς λειτουργούν οι γεννήτριες φωνής AI;

Η σύνθεση του λόγου, η διαδικασία παραγωγής τεχνητού ανθρώπινου λόγου, υπάρχει εδώ και δεκαετίες. Και όπως όλη η τεχνολογία, έχει υποστεί βαθιές αλλαγές με τα χρόνια.

Όσοι έχουν χρησιμοποιήσει Windows 2000 και XP ίσως θυμούνται το Microsoft Sam, την προεπιλεγμένη αντρική φωνή του λειτουργικού συστήματος που μετατρέπεται σε ομιλία. Η Microsoft Sam έκανε τη δουλειά, αλλά οι ήχοι που παρήγαγε ήταν ρομποτικοί, άκαμπτοι και αφύσικοι. Τα εργαλεία που έχουμε στη διάθεσή μας σήμερα είναι πολύ πιο προηγμένα, σε μεγάλο βαθμό χάρη στη βαθιά μάθηση.

instagram viewer

Η βαθιά μάθηση είναι α μέθοδος μηχανικής μάθησης που βασίζεται σε τεχνητά νευρωνικά δίκτυα. Λόγω αυτών των νευρωνικών δικτύων, το σύγχρονο AI είναι ικανό να επεξεργάζεται δεδομένα σχεδόν όπως οι νευρώνες στον ανθρώπινο εγκέφαλο ερμηνεύουν πληροφορίες. Δηλαδή, όσο πιο ανθρώπινη τεχνητή νοημοσύνη γίνεται, τόσο καλύτερα μιμείται την ανθρώπινη συμπεριφορά.

Αυτός, με λίγα λόγια, είναι ο τρόπος με τον οποίο λειτουργούν οι σύγχρονες γεννήτριες φωνής AI. Όσο περισσότερα δεδομένα ομιλίας εκτίθενται, τόσο πιο ικανοί γίνονται στο να μιμούνται την ανθρώπινη ομιλία. Λόγω των σχετικά πρόσφατων εξελίξεων σε αυτήν την τεχνολογία, το λογισμικό τελευταίας τεχνολογίας μετατροπής κειμένου σε ομιλία μπορεί ουσιαστικά να αναπαράγει τους ήχους που τροφοδοτεί.

Πώς οι ηθοποιοί απειλών χρησιμοποιούν τις γεννήτριες φωνής AI

Δεν αποτελεί έκπληξη το γεγονός ότι αυτή η τεχνολογία γίνεται κατάχρηση από φορείς απειλών. Και όχι μόνο κυβερνοεγκληματίες με την τυπική έννοια της λέξης, αλλά και από πράκτορες παραπληροφόρησης, απατεώνες, μάρκετινγκ μαύρων καπέλων και τρολ.

Τη στιγμή που η ElevenLabs κυκλοφόρησε μια beta έκδοση του λογισμικού μετατροπής κειμένου σε ομιλία τον Ιανουάριο του 2023, ακροδεξιοί τρολ στον πίνακα μηνυμάτων 4chan άρχισαν να το κάνουν κατάχρηση. Χρησιμοποιώντας την προηγμένη τεχνητή νοημοσύνη, αναπαρήγαγαν τις φωνές ατόμων όπως ο Ντέιβιντ Άτενμπορο και η Έμα Γουάτσον, κάνοντάς τους να φαίνονται σαν οι διασημότητες να προχωρούσαν σε άθλιες, απεχθής ατάκες.

Οπως και Μέγγενη αναφέρθηκε εκείνη την εποχή, η ElevenLabs παραδέχτηκε ότι οι άνθρωποι έκαναν κατάχρηση του λογισμικού της, ιδιαίτερα της κλωνοποίησης φωνής. Αυτή η δυνατότητα επιτρέπει σε οποιονδήποτε να "κλωνοποιήσει" τη φωνή ενός άλλου ατόμου. Το μόνο που χρειάζεται να κάνετε είναι να ανεβάσετε μια εγγραφή ενός λεπτού και να αφήσετε το AI να κάνει τα υπόλοιπα. Προφανώς, όσο μεγαλύτερη είναι η εγγραφή, τόσο καλύτερη είναι η έξοδος.

Τον Μάρτιο του 2023, ένα viral βίντεο του TikTok τράβηξε την προσοχή Οι Νιου Γιορκ Ταιμς. Στο βίντεο, ο διάσημος podcaster Joe Rogan και ο Dr. Andrew Huberman, συχνός καλεσμένος στο The Joe Rogan Experience, ακούστηκαν να συζητούν ένα ρόφημα καφεΐνης που «ενισχύει τη λίμπιντο». Το βίντεο έκανε να φαίνεται ότι τόσο ο Rogan όσο και ο Huberman υποστήριζαν κατηγορηματικά το προϊόν. Στην πραγματικότητα, οι φωνές τους κλωνοποιήθηκαν χρησιμοποιώντας AI.

Περίπου την ίδια περίοδο, η τράπεζα Silicon Valley Bank με έδρα τη Σάντα Κλάρα της Καλιφόρνια κατέρρευσε λόγω λαθών διαχείρισης κινδύνων και άλλων ζητημάτων και ανελήφθη από την κυβέρνηση της πολιτείας. Αυτή ήταν η μεγαλύτερη τραπεζική πτώχευση στις Ηνωμένες Πολιτείες από την οικονομική κρίση του 2008, επομένως προκάλεσε κρουστικά κύματα στις παγκόσμιες αγορές.

Αυτό που συνέβαλε στον πανικό ήταν μια ψεύτικη ηχογράφηση του προέδρου των ΗΠΑ Τζο Μπάιντεν. Στην ηχογράφηση, ο Μπάιντεν προφανώς ακούστηκε να προειδοποιεί για μια επικείμενη «κατάρρευση» και να κατευθύνει την κυβέρνησή του «να χρησιμοποιήσει όλη τη δύναμη των μέσων ενημέρωσης για να ηρεμήσει το κοινό». Ελεγκτές στοιχείων όπως PolitiFact έσπευσαν να απομυθοποιήσουν το κλιπ, αλλά είναι πιθανό να το είχαν ακούσει εκατομμύρια μέχρι εκείνο το σημείο.

Αν οι γεννήτριες φωνής τεχνητής νοημοσύνης μπορούν να χρησιμοποιηθούν για να υποδυθούν διασημότητες, μπορούν επίσης να χρησιμοποιηθούν για να υποδυθούν τακτικά άτομα, και αυτό ακριβώς έκαναν οι εγκληματίες του κυβερνοχώρου. Σύμφωνα με ZDNet, χιλιάδες Αμερικανοί πέφτουν σε απάτες γνωστές ως vishing ή φωνητικό ψάρεμα κάθε χρόνο. Ένα ηλικιωμένο ζευγάρι έγινε πρωτοσέλιδο σε εθνικό επίπεδο το 2023 όταν έλαβε ένα τηλεφώνημα από τον «εγγονό» του, ο οποίος ισχυρίστηκε ότι ήταν στη φυλακή και ζήτησε χρήματα.

Εάν έχετε ανεβάσει ποτέ ένα βίντεο YouTube (ή εμφανίστηκε σε ένα), συμμετείχατε σε μια μεγάλη ομαδική κλήση με άτομα που δεν ξέρετε, ή αν ανεβάσατε τη φωνή σας στο Διαδίκτυο με κάποια ιδιότητα, εσείς ή τα αγαπημένα σας πρόσωπα μπορεί θεωρητικά να κινδυνεύετε. Τι θα εμπόδιζε έναν απατεώνα να ανεβάσει τη φωνή σας σε μια γεννήτρια τεχνητής νοημοσύνης, να την κλωνοποιήσει και να επικοινωνήσει με την οικογένειά σας;

Οι γεννήτριες φωνής AI διαταράσσουν το τοπίο της κυβερνοασφάλειας

Δεν χρειάζεται ένας ειδικός στον τομέα της κυβερνοασφάλειας για να αναγνωρίσει πόσο επικίνδυνη μπορεί να είναι η τεχνητή νοημοσύνη σε λάθος χέρια. Και ενώ είναι αλήθεια ότι το ίδιο μπορεί να ειπωθεί για όλη την τεχνολογία, η τεχνητή νοημοσύνη είναι μια μοναδική απειλή για διάφορους λόγους.

Πρώτον, είναι σχετικά νέο, πράγμα που σημαίνει ότι δεν ξέρουμε πραγματικά τι να περιμένουμε από αυτό. Τα σύγχρονα εργαλεία τεχνητής νοημοσύνης επιτρέπουν στους εγκληματίες του κυβερνοχώρου να κλιμακώνουν και να αυτοματοποιούν τις δραστηριότητές τους με άνευ προηγουμένου τρόπο, ενώ εκμεταλλεύονται τη σχετική άγνοια του κοινού σχετικά με αυτό το θέμα. Επίσης, η γενετική τεχνητή νοημοσύνη επιτρέπει σε παράγοντες απειλών με λίγες γνώσεις και δεξιότητες δημιουργήστε κακόβουλο κώδικα, δημιουργία ιστότοπων απάτης, διάδοση ανεπιθύμητων μηνυμάτων, σύνταξη μηνυμάτων ηλεκτρονικού ψαρέματος, δημιουργούν ρεαλιστικές εικόνεςκαι παράγουν ατελείωτες ώρες ψεύτικο περιεχόμενο ήχου και βίντεο.

Είναι κρίσιμο, αυτό λειτουργεί με δύο τρόπους: η τεχνητή νοημοσύνη χρησιμοποιείται επίσης για την προστασία των συστημάτων και πιθανότατα θα είναι για τις επόμενες δεκαετίες. Δεν θα ήταν παράλογο να υποθέσουμε ότι αυτό που μας περιμένει είναι ένα είδος κούρσας εξοπλισμών τεχνητής νοημοσύνης μεταξύ κυβερνοεγκληματιών και τον κλάδο της κυβερνοασφάλειας, δεδομένου ότι οι αμυντικές και επιθετικές ικανότητες αυτών των εργαλείων είναι εγγενώς ίσος.

Για τον μέσο άνθρωπο, η έλευση της ευρέως διαδεδομένης γενετικής τεχνητής νοημοσύνης απαιτεί μια ριζοσπαστική επανεξέταση των πρακτικών ασφαλείας. Όσο συναρπαστική και χρήσιμη κι αν είναι η τεχνητή νοημοσύνη, μπορεί τουλάχιστον να θολώσει τη γραμμή μεταξύ του πραγματικού και του δεν είναι, και στη χειρότερη επιδεινώνουν τα υπάρχοντα ζητήματα ασφάλειας και δημιουργούν νέο χώρο για ελιγμούς των παραγόντων απειλών σε.

Οι γεννήτριες φωνής δείχνουν το καταστροφικό δυναμικό της τεχνητής νοημοσύνης

Μόλις το ChatGPT κυκλοφόρησε στην αγορά, οι συζητήσεις για τη ρύθμιση της τεχνητής νοημοσύνης εντάθηκαν. Οποιαδήποτε προσπάθεια περιορισμού αυτής της τεχνολογίας θα απαιτούσε πιθανώς διεθνή συνεργασία σε βαθμό που δεν έχουμε δει εδώ και δεκαετίες, γεγονός που το καθιστά απίθανο.

Το τζίνι έχει βγει από το μπουκάλι και το καλύτερο που μπορούμε να κάνουμε είναι να το συνηθίσουμε. Αυτό, και ελπίζουμε ότι ο τομέας της κυβερνοασφάλειας θα προσαρμοστεί ανάλογα.