Τα chatbots AI μπορεί να έχουν ψευδαισθήσεις, δίνοντας με αυτοπεποίθηση εσφαλμένες απαντήσεις — τις οποίες μπορούν να εκμεταλλευτούν οι χάκερ. Δείτε πώς οι χάκερ οπλίζουν τις παραισθήσεις.

Τα μεγάλα γλωσσικά μοντέλα AI είναι ατελή και μερικές φορές δημιουργούν ψευδείς πληροφορίες. Αυτές οι περιπτώσεις, που ονομάζονται παραισθήσεις, μπορούν να αποτελέσουν απειλή στον κυβερνοχώρο για τις επιχειρήσεις και τους μεμονωμένους λάτρεις της τεχνητής νοημοσύνης.

Ευτυχώς, μπορείτε να αυξήσετε την άμυνα ενάντια στις παραισθήσεις AI με αυξημένη επίγνωση και υγιή δεύτερη εικασία.

Γιατί το AI έχει ψευδαισθήσεις;

Δεν υπάρχει συναίνεση για το γιατί τα μοντέλα AI έχουν παραισθήσεις, αν και υπάρχουν μερικές πιθανές εικασίες.

Η τεχνητή νοημοσύνη εκπαιδεύεται από τεράστια σύνολα δεδομένων, που συχνά περιέχουν ελαττώματα όπως κενά σκέψης, διακύμανση εξέχουσας σημασίας περιεχομένου ή επιβλαβείς προκαταλήψεις. Οποιαδήποτε εκπαίδευση από αυτά τα ελλιπή ή ανεπαρκή σύνολα δεδομένων θα μπορούσε να είναι η ρίζα των παραισθήσεων, ακόμα κι αν μεταγενέστερες επαναλήψεις του συνόλου δεδομένων έλαβαν επιμέλεια από επιστήμονες δεδομένων.

instagram viewer

Με την πάροδο του χρόνου, οι επιστήμονες δεδομένων μπορούν να κάνουν τις πληροφορίες πιο ακριβείς και να εισάγουν πρόσθετες γνώσεις για την κάλυψη των κενών θέσεων και την ελαχιστοποίηση της πιθανότητας παραισθήσεων. Οι επόπτες ενδέχεται να φέρουν εσφαλμένη ετικέτα στα δεδομένα. Ο κώδικας προγραμματισμού ενδέχεται να έχει σφάλματα. Η διόρθωση αυτών των στοιχείων είναι απαραίτητη επειδή τα μοντέλα τεχνητής νοημοσύνης προχωρούν με βάση αλγόριθμους μηχανικής εκμάθησης.

Αυτοί οι αλγόριθμοι χρησιμοποιούν δεδομένα για να κάνουν προσδιορισμούς. Μια επέκταση αυτού είναι το νευρωνικό δίκτυο του AI, το οποίο δημιουργεί νέες αποφάσεις από την εμπειρία μηχανικής μάθησης έως μοιάζουν με την πρωτοτυπία του ανθρώπινου μυαλού πιο συγκεκριμένα. Αυτά τα δίκτυα περιέχουν μετασχηματιστές, οι οποίοι αναλύουν τις σχέσεις μεταξύ απομακρυσμένων σημείων δεδομένων. Όταν οι μετασχηματιστές στραβώνουν, μπορεί να εμφανιστούν παραισθήσεις.

Πώς οι ψευδαισθήσεις AI παρέχουν ευκαιρίες στους χάκερ

Δυστυχώς, δεν είναι γνωστό ότι η τεχνητή νοημοσύνη έχει παραισθήσεις και η τεχνητή νοημοσύνη θα ακούγεται σίγουρη ακόμα και όταν είναι εντελώς λάθος. Όλα αυτά συμβάλλουν στο να γίνουν οι χρήστες πιο εφησυχασμένοι και να εμπιστεύονται την τεχνητή νοημοσύνη, και οι παράγοντες απειλών βασίζονται σε αυτήν τη συμπεριφορά χρήστη για να τους κάνουν να κατεβάσουν ή να ενεργοποιήσουν τις επιθέσεις τους.

Για παράδειγμα, ένα μοντέλο τεχνητής νοημοσύνης μπορεί να έχει ψευδαισθήσεις για μια βιβλιοθήκη ψεύτικων κωδικών και να συστήσει στους χρήστες να κατεβάσουν αυτήν τη βιβλιοθήκη. Είναι πιθανό το μοντέλο να συνεχίσει να προτείνει την ίδια βιβλιοθήκη με παραισθήσεις σε πολλούς χρήστες που κάνουν παρόμοια ερώτηση. Εάν οι χάκερ ανακαλύψουν αυτή την ψευδαίσθηση, μπορούν να δημιουργήσουν μια πραγματική εκδοχή της φανταστικής βιβλιοθήκης — αλλά γεμάτη με επικίνδυνο κώδικα και κακόβουλο λογισμικό. Τώρα, όταν η τεχνητή νοημοσύνη συνεχίζει να προτείνει τη βιβλιοθήκη κωδικών, οι χρήστες χωρίς να το θέλουν θα κατεβάσουν τον κώδικα των χάκερ.

Η μεταφορά επιβλαβούς κώδικα και προγραμμάτων εκμεταλλευόμενοι τις ψευδαισθήσεις AI δεν αποτελεί έκπληξη το επόμενο βήμα για τους φορείς απειλών. Οι χάκερ δεν δημιουργούν απαραίτητα αμέτρητες καινοτόμες απειλές στον κυβερνοχώρο - απλώς αναζητούν νέους τρόπους για να τις παραδώσουν χωρίς υποψίες. Οι ψευδαισθήσεις με τεχνητή νοημοσύνη επηρεάζουν την ίδια ανθρώπινη αφέλεια, το να κάνει κλικ σε συνδέσμους email εξαρτάται από (γι' αυτό θα πρέπει να χρησιμοποιήστε εργαλεία ελέγχου συνδέσμων για την επαλήθευση διευθύνσεων URL).

Οι χάκερ μπορεί επίσης να το πάνε στο επόμενο επίπεδο. Εάν αναζητάτε βοήθεια κωδικοποίησης και κατεβάζετε τον ψεύτικο, κακόβουλο κώδικα, ο παράγοντας απειλής θα μπορούσε επίσης να κάνει τον κώδικα πραγματικά λειτουργικό, με ένα επιβλαβές πρόγραμμα που εκτελείται στο παρασκήνιο. Ακριβώς επειδή λειτουργεί με τον τρόπο που υπολογίζετε δεν σημαίνει ότι δεν είναι επικίνδυνο.

Η έλλειψη εκπαίδευσης μπορεί να σας ενθαρρύνει να κάνετε λήψη συστάσεων που δημιουργούνται από AI λόγω της συμπεριφοράς του αυτόματου πιλότου στο διαδίκτυο. Κάθε τομέας δέχεται πολιτιστική πίεση να υιοθετήσει την τεχνητή νοημοσύνη στις επιχειρηματικές του πρακτικές. Αμέτρητοι οργανισμοί και βιομηχανίες που βρίσκονται μακριά από την τεχνολογία παίζουν με εργαλεία τεχνητής νοημοσύνης με λίγη εμπειρία και ακόμη πιο αραιή ασφάλεια στον κυβερνοχώρο, απλώς για να παραμείνουν ανταγωνιστικοί.

Πώς να μείνετε ασφαλείς από ψευδαισθήσεις τεχνητής νοημοσύνης με όπλα

Η πρόοδος είναι στον ορίζοντα. Η δημιουργία κακόβουλου λογισμικού με γενετική τεχνητή νοημοσύνη ήταν εύκολη προτού οι εταιρείες προσαρμόσουν τα σύνολα δεδομένων και τους όρους και τις προϋποθέσεις για να αποτρέψουν ανήθικες γενιές. Γνωρίζοντας τις κοινωνικές, τεχνικές και προσωπικές αδυναμίες που μπορεί να έχετε έναντι των επικίνδυνων παραισθήσεων τεχνητής νοημοσύνης, ποιοι είναι μερικοί τρόποι για να παραμείνετε ασφαλείς;

Οποιοσδήποτε στον κλάδο μπορεί να εργαστεί για τη βελτίωση της τεχνολογίας νευρωνικών δικτύων και την επαλήθευση βιβλιοθηκών. Πρέπει να υπάρχουν έλεγχοι και ισορροπίες προτού οι απαντήσεις χτυπήσουν τους τελικούς χρήστες. Παρά το γεγονός ότι αυτό είναι μια απαραίτητη πρόοδος του κλάδου, μπορείτε επίσης να διαδραματίσετε έναν ρόλο στην προστασία του εαυτού σας και των άλλων από γενεσιουργές απειλές τεχνητής νοημοσύνης.

Μέτριοι χρήστες μπορεί να εξασκηθεί στον εντοπισμό παραισθήσεων AI με αυτές τις στρατηγικές:

  • Εύρεση ορθογραφικών και γραμματικών λαθών.
  • Βλέποντας πότε το περιβάλλον του ερωτήματος δεν ευθυγραμμίζεται με το πλαίσιο της απάντησης.
  • Αναγνωρίζοντας πότε οι εικόνες που βασίζονται σε όραση υπολογιστή δεν ταιριάζουν με το πώς θα έβλεπαν τα ανθρώπινα μάτια την ιδέα.

Να είστε πάντα προσεκτικοί κατά τη λήψη περιεχομένου από το διαδίκτυο, ακόμη και όταν συνιστάται από την τεχνητή νοημοσύνη. Εάν το AI συνιστά τη λήψη κώδικα, μην το κάνετε στα τυφλά. ελέγξτε τυχόν κριτικές για να βεβαιωθείτε ότι ο κώδικας είναι νόμιμος και δείτε εάν μπορείτε να βρείτε πληροφορίες για τον δημιουργό.

Η καλύτερη αντίσταση ενάντια στις επιθέσεις που βασίζονται σε παραισθήσεις τεχνητής νοημοσύνης είναι η εκπαίδευση. Το να μιλάτε για τις εμπειρίες σας και να διαβάζετε πώς οι άλλοι προκάλεσαν κακόβουλες ψευδαισθήσεις, είτε από ατύχημα είτε από εσκεμμένες δοκιμές, είναι πολύτιμο για την πλοήγηση στην τεχνητή νοημοσύνη στο μέλλον.

Ενίσχυση της κυβερνοασφάλειας AI

Πρέπει να προσέχετε τι ζητάτε όταν μιλάτε σε AI. Περιορίστε τις πιθανότητες για επικίνδυνα αποτελέσματα με το να είστε όσο το δυνατόν πιο συγκεκριμένοι και να αμφισβητείτε οτιδήποτε εμφανίζεται στην οθόνη. Δοκιμάστε τον κώδικα σε ασφαλή περιβάλλοντα και ελέγξτε άλλες φαινομενικά αξιόπιστες πληροφορίες. Επιπλέον, η συνεργασία με άλλους, η συζήτηση των εμπειριών σας και η απλοποίηση της ορολογίας σχετικά με την τεχνητή νοημοσύνη οι ψευδαισθήσεις και οι απειλές για την ασφάλεια στον κυβερνοχώρο μπορούν να βοηθήσουν τις μάζες να είναι πιο προσεκτικές και ανθεκτικές έναντι χάκερ.