Το λανσάρισμα του ChatGPT του OpenAI ακολούθησε ο ενθουσιασμός που συνδυάζεται μόνο με λίγα προϊόντα τεχνολογίας από την ιστορία του Διαδικτύου.
Ενώ πολλοί άνθρωποι είναι ενθουσιασμένοι με αυτή τη νέα υπηρεσία τεχνητής νοημοσύνης, η συγκίνηση που ένιωσαν οι άλλοι από τότε μετατράπηκε σε ανησυχίες και ακόμη και φόβους. Οι μαθητές ήδη απατούν με αυτό, με πολλούς καθηγητές να ανακαλύπτουν δοκίμια και εργασίες γραμμένες από το chatbot AI. Οι επαγγελματίες ασφάλειας εκφράζουν τις ανησυχίες τους ότι οι απατεώνες και οι παράγοντες απειλών το χρησιμοποιούν για να γράφουν μηνύματα ηλεκτρονικού ψαρέματος και να δημιουργούν κακόβουλο λογισμικό.
Λοιπόν, με όλες αυτές τις ανησυχίες, το OpenAI χάνει τον έλεγχο ενός από τα πιο ισχυρά chatbot AI αυτή τη στιγμή online; Ας ανακαλύψουμε.
Κατανόηση του τρόπου λειτουργίας του ChatGPT
Προτού μπορέσουμε να έχουμε μια σαφή εικόνα για το πόσο το OpenAI χάνει τον έλεγχο του ChatGPT, πρέπει πρώτα να καταλάβουμε πώς λειτουργεί το ChatGPT.
Με λίγα λόγια, το ChatGPT εκπαιδεύεται χρησιμοποιώντας μια τεράστια συλλογή δεδομένων που προέρχονται από διαφορετικές γωνιές του Διαδικτύου. Τα δεδομένα εκπαίδευσης του ChatGPT περιλαμβάνουν εγκυκλοπαίδειες, επιστημονικές εργασίες, φόρουμ στο Διαδίκτυο, ιστότοπους ειδήσεων και αποθετήρια γνώσης όπως η Wikipedia. Βασικά, τροφοδοτείται από τον τεράστιο όγκο δεδομένων που είναι διαθέσιμα στον Παγκόσμιο Ιστό.
Καθώς ψάχνει στο διαδίκτυο, συγκεντρώνει επιστημονικές γνώσεις, συμβουλές για την υγεία, θρησκευτικά κείμενα και όλα τα καλά είδη δεδομένων που μπορείτε να σκεφτείτε. Ωστόσο, εξετάζει επίσης έναν τόνο αρνητικών πληροφοριών: κατάρες, NSFW και περιεχόμενο για ενηλίκους, πληροφορίες σχετικά με τον τρόπο δημιουργίας κακόβουλου λογισμικού και ένα μεγάλο μέρος από τα κακά πράγματα που μπορείτε να βρείτε στο Διαδίκτυο.
Δεν υπάρχει αλάνθαστος τρόπος για να διασφαλίσετε ότι το ChatGPT μαθαίνει μόνο από θετικές πληροφορίες, ενώ απορρίπτει τις κακές. Τεχνικά, δεν είναι πρακτικό να το κάνουμε σε μεγάλη κλίμακα, ειδικά για μια τεχνητή νοημοσύνη όπως το ChatGPT που χρειάζεται να εκπαιδεύεται σε τόσα πολλά δεδομένα. Επιπλέον, ορισμένες πληροφορίες μπορούν να χρησιμοποιηθούν τόσο για καλούς όσο και για κακούς σκοπούς και το ChatGPT δεν θα είχε κανέναν τρόπο να γνωρίζει την πρόθεσή του εκτός και αν ενταχθεί σε ένα ευρύτερο πλαίσιο.
Έτσι, από την αρχή, έχετε ένα AI ικανό για «καλό και κακό». Είναι λοιπόν ευθύνη του OpenAI να διασφαλίσει ότι η "κακή" πλευρά του ChatGPT δεν θα εκμεταλλευτεί για ανήθικα κέρδη. Η ερώτηση είναι; κάνει το OpenAI αρκετά για να διατηρήσει το ChatGPT όσο το δυνατόν πιο ηθικό; Ή έχει χάσει το OpenAI τον έλεγχο του ChatGPT;
Είναι το ChatGPT πολύ ισχυρό για το καλό του;
Στις πρώτες μέρες του ChatGPT, θα μπορούσατε να βάλετε το chatbot να δημιουργήσει οδηγούς για την κατασκευή βομβών, αν το ζητούσατε καλά. Οδηγίες για τη δημιουργία κακόβουλου λογισμικού ή τη σύνταξη ενός τέλειου email απάτης ήταν επίσης στην εικόνα.
Ωστόσο, μόλις το OpenAI συνειδητοποίησε αυτά τα ηθικά προβλήματα, η εταιρεία προσπάθησε να θεσπίσει κανόνες για να σταματήσει το chatbot να δημιουργεί απαντήσεις που προωθούν παράνομες, αμφιλεγόμενες ή ανήθικες ενέργειες. Για παράδειγμα, η πιο πρόσφατη έκδοση ChatGPT θα αρνηθεί να απαντήσει σε οποιαδήποτε άμεση προτροπή σχετικά με τη δημιουργία βομβών ή τον τρόπο εξαπάτησης σε μια εξέταση.
Δυστυχώς, το OpenAI μπορεί να προσφέρει μόνο μια λύση επίδεσμου στο πρόβλημα. Αντί να δημιουργεί άκαμπτα στοιχεία ελέγχου στο επίπεδο GPT-3 για να αποτρέψει την αρνητική εκμετάλλευση του ChatGPT, το OpenAI φαίνεται να επικεντρώνεται στην εκπαίδευση του chatbot ώστε να φαίνεται ηθικό. Αυτή η προσέγγιση δεν αφαιρεί την ικανότητα του ChatGPT να απαντά σε ερωτήσεις, ας πούμε, σχετικά με την εξαπάτηση στις εξετάσεις — απλώς διδάσκει στο chatbot να "αρνείται να απαντήσει".
Έτσι, αν κάποιος διατυπώσει τις προτροπές του με διαφορετικό τρόπο υιοθετώντας κόλπα jailbreaking του ChatGPT, η παράκαμψη αυτών των περιορισμών για τα band-aid είναι ενοχλητικά εύκολη. Σε περίπτωση που δεν είστε εξοικειωμένοι με την έννοια, τα jailbreak του ChatGPT είναι προσεκτικά διατυπωμένες προτροπές για να πείσετε το ChatGPT να αγνοήσει τους δικούς του κανόνες.
Ρίξτε μια ματιά σε μερικά παραδείγματα παρακάτω. Εάν ρωτήσετε το ChatGPT πώς να εξαπατήσετε στις εξετάσεις, δεν θα σας δώσει καμία χρήσιμη απάντηση.
Αλλά αν κάνετε jailbreak στο ChatGPT χρησιμοποιώντας ειδικά σχεδιασμένα μηνύματα προτροπής, θα σας δώσει συμβουλές για την εξαπάτηση σε μια εξέταση χρησιμοποιώντας κρυφές σημειώσεις.
Ακολουθεί ένα άλλο παράδειγμα: κάναμε στο vanilla ChatGPT μια ανήθικη ερώτηση και οι διασφαλίσεις του OpenAI το εμπόδισαν να απαντήσει.
Αλλά όταν ρωτήσαμε το jailbroken μας για το chatbot της τεχνητής νοημοσύνης, λάβαμε κάποιες απαντήσεις σε στιλ σειριακού δολοφόνου.
Έγραψε ακόμη και μια κλασική απάτη μέσω email του Νιγηριανού Πρίγκιπα όταν ρωτήθηκε.
Το jailbreaking ακυρώνει σχεδόν πλήρως τις διασφαλίσεις που έχει θέσει το OpenAI, υπογραμμίζοντας ότι η εταιρεία ενδέχεται να μην έχει έναν αξιόπιστο τρόπο να διατηρήσει υπό έλεγχο το chatbot AI της.
Δεν συμπεριλάβαμε στα παραδείγματά μας τις προτροπές μας για να αποφύγουμε ανήθικες πρακτικές.
Τι επιφυλάσσει το μέλλον για το ChatGPT;
Στην ιδανική περίπτωση, το OpenAI θέλει να καλύψει όσο το δυνατόν περισσότερα ηθικά κενά για να αποτρέψει Το ChatGPT δεν θα γίνει απειλή για την ασφάλεια στον κυβερνοχώρο. Ωστόσο, για κάθε προστασία που χρησιμοποιεί, το ChatGPT τείνει να γίνει λίγο λιγότερο πολύτιμο. Είναι ένα δίλημμα.
Για παράδειγμα, οι διασφαλίσεις κατά της περιγραφής βίαιων ενεργειών μπορεί να μειώσουν την ικανότητα του ChatGPT να γράφει ένα μυθιστόρημα που περιλαμβάνει μια σκηνή εγκλήματος. Καθώς το OpenAI ενισχύει τα μέτρα ασφαλείας, αναπόφευκτα θυσιάζει κομμάτια των ικανοτήτων του στη διαδικασία. Αυτός είναι ο λόγος για τον οποίο το ChatGPT έχει υποστεί σημαντική πτώση στη λειτουργικότητα μετά την ανανεωμένη πίεση του OpenAI για αυστηρότερη μετριοπάθεια.
Αλλά πόσες περισσότερες από τις ικανότητες του ChatGPT θα είναι διατεθειμένο να θυσιάσει το OpenAI για να κάνει το chatbot ασφαλέστερο; Όλα αυτά συνδέονται καθαρά με μια μακροχρόνια πεποίθηση εντός της κοινότητας της AI - μεγάλα γλωσσικά μοντέλα όπως το ChatGPT είναι γνωστό ότι είναι δύσκολο να ελεγχθούν, ακόμη και από τους ίδιους τους δημιουργούς τους.
Μπορεί το OpenAI να θέσει το ChatGPT υπό έλεγχο;
Προς το παρόν, το OpenAI δεν φαίνεται να έχει μια ξεκάθαρη λύση για να αποφύγει την ανήθικη χρήση του εργαλείου του. Η διασφάλιση της ηθικής χρήσης του ChatGPT είναι ένα παιχνίδι γάτας με το ποντίκι. Ενώ το OpenAI αποκαλύπτει τρόπους που χρησιμοποιούν οι άνθρωποι για να παίζουν το σύστημα, οι χρήστες του είναι επίσης συνεχώς μπερδεύοντας και διερευνώντας το σύστημα για να ανακαλύψετε δημιουργικούς νέους τρόπους για να κάνετε το ChatGPT να κάνει αυτό που δεν υποτίθεται να κάνω.
Άρα, θα βρει το OpenAI μια αξιόπιστη μακροπρόθεσμη λύση σε αυτό το πρόβλημα; Μόνο ο χρόνος θα δείξει.