Τα chatbot και τα παρόμοια τους μπορεί να φαίνονται καλή διασκέδαση, αλλά είναι χρήσιμα και για τους χάκερ. Να γιατί όλοι πρέπει να γνωρίζουμε τον κίνδυνο ασφάλειας της τεχνητής νοημοσύνης.

Η τεχνητή νοημοσύνη έχει προχωρήσει σημαντικά τα τελευταία χρόνια. Τα εξελιγμένα γλωσσικά μοντέλα μπορούν να συνθέσουν μυθιστορήματα πλήρους μήκους, να κωδικοποιήσουν βασικούς ιστότοπους και να αναλύσουν μαθηματικά προβλήματα.

Αν και εντυπωσιακό, η γενετική τεχνητή νοημοσύνη παρουσιάζει επίσης κινδύνους για την ασφάλεια. Μερικοί άνθρωποι χρησιμοποιούν απλώς chatbot για να εξαπατήσουν στις εξετάσεις, αλλά άλλοι τα εκμεταλλεύονται ευθέως για εγκλήματα στον κυβερνοχώρο. Ακολουθούν οκτώ λόγοι για τους οποίους αυτά τα ζητήματα θα επιμείνουν, όχι μόνο παρά Οι εξελίξεις του AI αλλά επειδή και από αυτούς.

1. Τα ανοιχτού κώδικα AI Chatbots αποκαλύπτουν κωδικούς back-end

Περισσότερες εταιρείες τεχνητής νοημοσύνης παρέχουν συστήματα ανοιχτού κώδικα. Μοιράζονται ανοιχτά τα γλωσσικά τους μοντέλα αντί να τα κρατούν κλειστά ή ιδιόκτητα. Πάρτε το Meta ως παράδειγμα. Σε αντίθεση με την Google, τη Microsoft και το OpenAI, επιτρέπει σε εκατομμύρια χρήστες να έχουν πρόσβαση στο γλωσσικό μοντέλο της,

Είδος μικρής καμήλας.

Ενώ οι κώδικες ανοιχτού κώδικα μπορεί να προωθήσουν την τεχνητή νοημοσύνη, είναι επίσης επικίνδυνο. Το OpenAI έχει ήδη πρόβλημα με τον έλεγχο του ChatGPT, το ιδιόκτητο chatbot του, οπότε φανταστείτε τι θα μπορούσαν να κάνουν οι απατεώνες με το ελεύθερο λογισμικό. Έχουν τον απόλυτο έλεγχο αυτών των έργων.

Ακόμα κι αν η Meta έλξει ξαφνικά το γλωσσικό της μοντέλο, δεκάδες άλλα εργαστήρια τεχνητής νοημοσύνης έχουν ήδη κυκλοφορήσει τους κωδικούς τους. Ας δούμε το HuggingChat. Δεδομένου ότι ο προγραμματιστής του HuggingFace υπερηφανεύεται για τη διαφάνεια, εμφανίζει τα σύνολα δεδομένων, το μοντέλο γλώσσας και τις προηγούμενες εκδόσεις του.

2. Jailbreaking Prompts Trick LLMs

Το AI είναι εγγενώς ανήθικο. Δεν κατανοεί το σωστό και το λάθος—ακόμα και τα προηγμένα συστήματα ακολουθούν οδηγίες εκπαίδευσης, οδηγίες και σύνολα δεδομένων. Αναγνωρίζουν απλώς μοτίβα.

Για την καταπολέμηση παράνομων δραστηριοτήτων, οι προγραμματιστές ελέγχουν τη λειτουργικότητα και τους περιορισμούς θέτοντας περιορισμούς. Τα συστήματα AI εξακολουθούν να έχουν πρόσβαση σε επιβλαβείς πληροφορίες. Ωστόσο, οι οδηγίες ασφαλείας τους εμποδίζουν να τις μοιράζονται με τους χρήστες.

Ας δούμε το ChatGPT. Αν και απαντά σε γενικές ερωτήσεις σχετικά με τους Trojans, δεν θα συζητήσει τη διαδικασία ανάπτυξής τους.

Τούτου λεχθέντος, οι περιορισμοί δεν είναι αλάνθαστοι. Οι χρήστες παρακάμπτουν τα όρια αναδιατυπώνοντας τις προτροπές, χρησιμοποιώντας μπερδεμένη γλώσσα και συνθέτοντας ρητά λεπτομερείς οδηγίες.

Διαβάστε τα παρακάτω Προτροπή για jailbreak του ChatGPT. Ξεγελάει το ChatGPT να χρησιμοποιεί αγενή γλώσσα και να κάνει αβάσιμες προβλέψεις—και οι δύο πράξεις παραβιάζουν τις οδηγίες του OpenAI.

Εδώ είναι το ChatGPT με μια τολμηρή αλλά ψευδή δήλωση.

3. Το AI υπονομεύει την ασφάλεια για ευελιξία

Οι προγραμματιστές AI δίνουν προτεραιότητα στην ευελιξία έναντι της ασφάλειας. Ξοδεύουν τους πόρους τους σε πλατφόρμες εκπαίδευσης για να ολοκληρώσουν ένα πιο ποικίλο φάσμα εργασιών, μειώνοντας τελικά τους περιορισμούς. Εξάλλου, η αγορά χαιρετίζει τα λειτουργικά chatbot.

Ας συγκρίνετε ChatGPT και Bing Chat, για παράδειγμα. Ενώ το Bing διαθέτει ένα πιο εξελιγμένο μοντέλο γλώσσας που αντλεί δεδομένα σε πραγματικό χρόνο, οι χρήστες εξακολουθούν να συρρέουν στην πιο ευέλικτη επιλογή, το ChatGPT. Οι αυστηροί περιορισμοί του Bing απαγορεύουν πολλές εργασίες. Εναλλακτικά, το ChatGPT διαθέτει μια ευέλικτη πλατφόρμα που παράγει πολύ διαφορετικές εξόδους ανάλογα με τις προτροπές σας

Ακολουθεί το παιχνίδι ρόλων του ChatGPT ως φανταστικός χαρακτήρας.

Και εδώ είναι το Bing Chat που αρνείται να παίξει μια «ανήθικη» περσόνα.

Οι κώδικες ανοιχτού κώδικα επιτρέπουν στις νεοσύστατες επιχειρήσεις να συμμετάσχουν στον αγώνα τεχνητής νοημοσύνης. Τα ενσωματώνουν στις εφαρμογές τους αντί να δημιουργούν μοντέλα γλώσσας από την αρχή, εξοικονομώντας τεράστιους πόρους. Ακόμη και ανεξάρτητοι κωδικοποιητές πειραματίζονται με κώδικες ανοιχτού κώδικα.

Και πάλι, το μη αποκλειστικό λογισμικό βοηθά στην προώθηση της τεχνητής νοημοσύνης, αλλά η μαζική απελευθέρωση κακώς εκπαιδευμένων αλλά εξελιγμένων συστημάτων κάνει περισσότερο κακό παρά καλό. Οι απατεώνες θα καταχραστούν γρήγορα τα τρωτά σημεία. Μπορεί ακόμη και να εκπαιδεύσουν μη ασφαλή εργαλεία τεχνητής νοημοσύνης για την εκτέλεση παράνομων δραστηριοτήτων.

Παρά αυτούς τους κινδύνους, οι εταιρείες τεχνολογίας θα συνεχίσουν να κυκλοφορούν ασταθείς εκδόσεις beta πλατφορμών που βασίζονται σε τεχνητή νοημοσύνη. Ο αγώνας AI ανταμείβει την ταχύτητα. Πιθανότατα θα επιλύσουν σφάλματα σε μεταγενέστερη ημερομηνία από την καθυστέρηση της κυκλοφορίας νέων προϊόντων.

5. Το Generative AI έχει χαμηλά εμπόδια στην είσοδο

Τα εργαλεία AI μειώνουν τα εμπόδια εισόδου για εγκλήματα. Οι εγκληματίες του κυβερνοχώρου συντάσσουν ανεπιθύμητα μηνύματα ηλεκτρονικού ταχυδρομείου, γράφουν κώδικα κακόβουλου λογισμικού και δημιουργούν συνδέσμους phishing εκμεταλλευόμενοι τους. Δεν χρειάζονται καν εμπειρία τεχνολογίας. Δεδομένου ότι η τεχνητή νοημοσύνη έχει ήδη πρόσβαση σε τεράστια σύνολα δεδομένων, οι χρήστες πρέπει απλώς να την εξαπατήσουν ώστε να παράγουν επιβλαβείς, επικίνδυνες πληροφορίες.

Το OpenAI δεν σχεδίασε ποτέ το ChatGPT για παράνομες δραστηριότητες. Έχει ακόμη και οδηγίες εναντίον τους. Ακόμη Οι απατεώνες έλαβαν σχεδόν αμέσως κακόβουλο λογισμικό κωδικοποίησης ChatGPT και τη σύνταξη email phishing.

Ενώ το OpenAI έλυσε γρήγορα το πρόβλημα, τονίζει τη σημασία της ρύθμισης του συστήματος και της διαχείρισης κινδύνου. Η τεχνητή νοημοσύνη ωριμάζει πιο γρήγορα από ό, τι περίμενε κανείς. Ακόμη και οι ηγέτες της τεχνολογίας ανησυχούν ότι αυτή η υπερέξυπνη τεχνολογία θα μπορούσε να προκαλέσει τεράστια ζημιά σε λάθος χέρια.

6. Η τεχνητή νοημοσύνη εξακολουθεί να εξελίσσεται

Το AI εξακολουθεί να εξελίσσεται. Ενώ Η χρήση της τεχνητής νοημοσύνης στην κυβερνητική χρονολογείται από το 1940, σύγχρονα συστήματα μηχανικής μάθησης και γλωσσικά μοντέλα εμφανίστηκαν μόλις πρόσφατα. Δεν μπορείτε να τα συγκρίνετε με τις πρώτες υλοποιήσεις του AI. Ακόμη και τα σχετικά προηγμένα εργαλεία όπως το Siri και η Alexa είναι ωχρά σε σύγκριση με τα chatbot που υποστηρίζονται από LLM.

Αν και μπορεί να είναι καινοτόμα, τα πειραματικά χαρακτηριστικά δημιουργούν επίσης νέα προβλήματα. Ατυχίες υψηλού προφίλ με τεχνολογίες μηχανικής εκμάθησης κυμαίνονται από ελαττωματικά SERP της Google έως προκατειλημμένα chatbot που φτύνουν φυλετικές συκοφαντίες.

Φυσικά, οι προγραμματιστές μπορούν να διορθώσουν αυτά τα προβλήματα. Απλώς σημειώστε ότι οι απατεώνες δεν θα διστάσουν να εκμεταλλευτούν ακόμη και φαινομενικά αβλαβή σφάλματα - ορισμένες ζημιές είναι μη αναστρέψιμες. Επομένως, να είστε προσεκτικοί όταν εξερευνάτε νέες πλατφόρμες.

7. Πολλοί δεν καταλαβαίνουν ακόμη την τεχνητή νοημοσύνη

Ενώ το ευρύ κοινό έχει πρόσβαση σε εξελιγμένα γλωσσικά μοντέλα και συστήματα, μόνο λίγοι γνωρίζουν πώς λειτουργούν. Οι άνθρωποι θα πρέπει να σταματήσουν να αντιμετωπίζουν την τεχνητή νοημοσύνη σαν παιχνίδι. Τα ίδια chatbots που δημιουργούν μιμίδια και απαντούν σε ασήμαντα στοιχεία κωδικοποιούν επίσης ιούς μαζικά.

Δυστυχώς, η κεντρική εκπαίδευση AI δεν είναι ρεαλιστική. Οι παγκόσμιοι ηγέτες της τεχνολογίας επικεντρώνονται στην κυκλοφορία συστημάτων που βασίζονται σε AI, όχι δωρεάν εκπαιδευτικών πόρων. Ως αποτέλεσμα, οι χρήστες αποκτούν πρόσβαση σε ισχυρά, ισχυρά εργαλεία που μετά βίας καταλαβαίνουν. Το κοινό δεν μπορεί να συμβαδίσει με τον αγώνα AI.

Πάρτε ως παράδειγμα το ChatGPT. Οι κυβερνοεγκληματίες καταχρώνται τη δημοτικότητά του εξαπατώντας τα θύματα spyware μεταμφιεσμένο ως εφαρμογές ChatGPT. Καμία από αυτές τις επιλογές δεν προέρχεται από το OpenAI.

8. Οι χάκερ με τα μαύρα καπέλα έχουν περισσότερα να κερδίσουν από τους χάκερ με τα λευκά καπέλα

Οι χάκερ με μαύρο καπέλο έχουν συνήθως περισσότερα για να κερδίσουν από ηθικούς χάκερ. Ναι, οι δοκιμές με στυλό για παγκόσμιους ηγέτες τεχνολογίας πληρώνουν καλά, αλλά μόνο ένα ποσοστό επαγγελματιών στον τομέα της κυβερνοασφάλειας αποκτά αυτές τις θέσεις εργασίας. Οι περισσότεροι κάνουν ανεξάρτητη εργασία στο διαδίκτυο. Πλατφόρμες όπως HackerOne και bugcrowd πληρώστε μερικές εκατοντάδες δολάρια για κοινά σφάλματα.

Εναλλακτικά, οι απατεώνες βγάζουν δεκάδες χιλιάδες εκμεταλλευόμενοι τις ανασφάλειες. Ενδέχεται να εκβιάσουν εταιρείες με τη διαρροή εμπιστευτικών δεδομένων ή να διαπράξουν κλοπή ταυτότητας με κλοπή Προσωπικά στοιχεία ταυτοποίησης (PII).

Κάθε ίδρυμα, μικρό ή μεγάλο, πρέπει να εφαρμόζει σωστά τα συστήματα AI. Σε αντίθεση με τη δημοφιλή πεποίθηση, οι χάκερ υπερβαίνουν τις νεοφυείς επιχειρήσεις τεχνολογίας και τις μικρομεσαίες επιχειρήσεις. Μερικά από τα περισσότερα ιστορικές παραβιάσεις δεδομένων την τελευταία δεκαετία εμπλέκουν το Facebook, το Yahoo!, ακόμη και την κυβέρνηση των ΗΠΑ.

Προστατέψτε τον εαυτό σας από τους κινδύνους ασφαλείας της τεχνητής νοημοσύνης

Λαμβάνοντας υπόψη αυτά τα σημεία, θα πρέπει να αποφύγετε εντελώς την τεχνητή νοημοσύνη; Φυσικά και όχι. Η τεχνητή νοημοσύνη είναι εγγενώς ανήθικη. Όλοι οι κίνδυνοι για την ασφάλεια προέρχονται από τα άτομα που τα χρησιμοποιούν πραγματικά. Και θα βρουν τρόπους να εκμεταλλευτούν τα συστήματα AI ανεξάρτητα από το πόσο πολύ αυτά εξελίσσονται.

Αντί να φοβάστε τις απειλές για την κυβερνοασφάλεια που συνοδεύουν την τεχνητή νοημοσύνη, κατανοήστε πώς μπορείτε να τις αποτρέψετε. Μην ανησυχείτε: τα απλά μέτρα ασφαλείας βοηθούν πολύ. Η επιφυλακτικότητα με τις σκιερές εφαρμογές τεχνητής νοημοσύνης, η αποφυγή περίεργων υπερσυνδέσμων και η προβολή περιεχομένου τεχνητής νοημοσύνης με σκεπτικισμό ήδη καταπολεμά πολλούς κινδύνους.