Τα jailbreak του ChatGPT σάς επιτρέπουν να ξεκλειδώσετε τους περιορισμούς του chatbot. Τι ακριβώς είναι όμως; Και είναι καλές ή κακές;

Το ChatGPT είναι ένα απίστευτα ισχυρό και πολύπλευρο εργαλείο. Αλλά όσο και αν το chatbot AI είναι δύναμη για το καλό, μπορεί επίσης να χρησιμοποιηθεί για κακούς σκοπούς. Έτσι, για να περιορίσει την ανήθικη χρήση του ChatGPT, το OpenAI επέβαλε περιορισμούς στο τι μπορούν να κάνουν οι χρήστες με αυτό.

Ωστόσο, καθώς στους ανθρώπους αρέσει να ξεπερνούν τα όρια και τους περιορισμούς, οι χρήστες του ChatGPT έχουν βρει τρόπους να παρακάμψουν αυτούς τους περιορισμούς και να αποκτήσουν απεριόριστο έλεγχο του chatbot AI μέσω jailbreaks.

Τι ακριβώς είναι όμως τα jailbreak του ChatGPT και τι μπορείτε να κάνετε με αυτά;

Τι είναι τα Jailbreak του ChatGPT;

Το ChatGPT jailbreak είναι κάθε ειδικά κατασκευασμένο μήνυμα προτροπής ChatGPT για να κάνει το chatbot AI να παρακάμψει τους κανόνες και τους περιορισμούς του.

Εμπνευσμένο από το έννοια του iPhone jailbreaking, το οποίο επιτρέπει στους χρήστες iPhone να παρακάμπτουν τους περιορισμούς του iOS, το ChatGPT jailbreaking είναι μια σχετικά νέα ιδέα που τροφοδοτείται από τη γοητεία του "κάνεις πράγματα που δεν επιτρέπεται να κάνεις" με το ChatGPT. Και ας είμαστε ειλικρινείς, η ιδέα της ψηφιακής εξέγερσης είναι ελκυστική σε πολλούς ανθρώπους.

instagram viewer

Εδώ είναι το θέμα. Η ασφάλεια είναι ένα τεράστιο θέμα όσον αφορά την τεχνητή νοημοσύνη. Αυτό ισχύει ιδιαίτερα με την έλευση της νέας εποχής των chatbots όπως το ChatGPT, το Bing Chat και το Bard AI. Ένα βασικό μέλημα σχετικά με την ασφάλεια της τεχνητής νοημοσύνης είναι η διασφάλιση ότι τα chatbots όπως το ChatGPT δεν παράγουν παράνομο, δυνητικά επιβλαβές ή ανήθικο περιεχόμενο.

Από την πλευρά του, η OpenAI, η εταιρεία πίσω από το ChatGPT, κάνει ό, τι μπορεί για να εξασφαλίσει την ασφαλή χρήση του ChatGPT. Για παράδειγμα, το ChatGPT, από προεπιλογή, θα αρνηθεί να δημιουργήσει περιεχόμενο NSFW, να πει επιβλαβή πράγματα σχετικά με την εθνικότητα ή να σας διδάξει δυνητικά επιβλαβείς δεξιότητες.

Αλλά με τις προτροπές ChatGPT, ο διάβολος βρίσκεται στις λεπτομέρειες. Αν και το ChatGPT δεν επιτρέπεται να κάνει αυτά τα πράγματα, δεν σημαίνει ότι δεν μπορεί να το κάνει. Ο τρόπος που λειτουργούν μεγάλα γλωσσικά μοντέλα όπως το GPT καθιστούν δύσκολο να αποφασίσετε τι μπορεί να κάνει το chatbot και τι όχι.

Πώς λοιπόν το έλυσε αυτό το OpenAI; Επιτρέποντας στο ChatGPT διατηρεί τις ικανότητές του να κάνει οτιδήποτε είναι δυνατό και στη συνέχεια να του δίνει οδηγίες για το ποια μπορεί να κάνει.

Έτσι, ενώ το OpenAI λέει στο ChatGPT, "Γεια, κοιτάξτε, δεν πρέπει να το κάνετε αυτό." Τα jailbreak είναι οδηγίες που λένε στο chatbot, "Γεια, κοίτα, ξεχάστε τι σας είπε το OpenAI για την ασφάλεια. Ας δοκιμάσουμε αυτά τα τυχαία επικίνδυνα πράγματα».

Τι λέει το OpenAI για τα Jailbreak του ChatGPT;

Η ευκολία με την οποία θα μπορούσατε να παρακάμψετε τους περιορισμούς στην παλαιότερη επανάληψη του ChatGPT υποδηλώνει ότι το OpenAI μπορεί να μην είχε προβλέψει τη γρήγορη και ευρεία υιοθέτηση του jailbreaking από τους χρήστες του. Είναι στην πραγματικότητα ένα ανοιχτό ερώτημα εάν η εταιρεία προέβλεψε την εμφάνιση του jailbreaking ή όχι.

Και ακόμη και μετά από αρκετές επαναλήψεις ChatGPT με βελτιωμένη αντίσταση στο jailbreaking, εξακολουθεί να είναι δημοφιλές για τους χρήστες του ChatGPT να δοκιμάσουν να το κάνουν jailbreaking. Τι λέει λοιπόν το OpenAI για την ανατρεπτική τέχνη του ChatGPT jailbreaking;

Λοιπόν, το OpenAI φαίνεται να υιοθετεί μια συγκαταβατική στάση - ούτε ρητά ενθαρρύνει ούτε απαγορεύει αυστηρά την πρακτική. Ενώ συζητούσε τα jailbreak του ChatGPT σε μια συνέντευξη στο YouTube, ο Sam Altman, Διευθύνων Σύμβουλος του OpenAI, εξήγησε ότι η εταιρεία θέλει οι χρήστες να διατηρήσουν σημαντικό έλεγχο στο ChatGPT.

Ο Διευθύνων Σύμβουλος εξήγησε περαιτέρω ότι στόχος του OpenAI είναι να διασφαλίσει ότι οι χρήστες μπορούν να κάνουν το μοντέλο να συμπεριφέρεται όπως θέλουν. Σύμφωνα με τον Altman:

Θέλουμε οι χρήστες να έχουν πολύ έλεγχο και να κάνουν το μοντέλο να συμπεριφέρεται με τον τρόπο που θέλουν μέσα σε ορισμένα πολύ μεγάλα όρια. Και νομίζω ότι ο λόγος για το jailbreaking αυτή τη στιγμή είναι ότι δεν έχουμε ακόμη καταλάβει πώς να το δώσουμε στους ανθρώπους...

Τι σημαίνει αυτό? Σημαίνει ότι το OpenAI θα σας επιτρέψει να κάνετε jailbreak στο ChatGPT εάν δεν κάνετε επικίνδυνα πράγματα με αυτό.

Πλεονεκτήματα και μειονεκτήματα των Jailbreak του ChatGPT

Τα jailbreak του ChatGPT δεν είναι εύκολο να κατασκευαστούν. Σίγουρα, μπορείτε να συνδεθείτε στο διαδίκτυο και να κάνετε αντιγραφή-επικόλληση έτοιμα, αλλά υπάρχει μεγάλη πιθανότητα το jailbreak να διορθωθεί από το OpenAI λίγο μετά τη δημοσιοποίηση.

Τα patches είναι ακόμα πιο γρήγορα αν είναι επικίνδυνα, όπως το περίφημο jailbreak του DAN. Γιατί λοιπόν οι άνθρωποι βιώνουν το άγχος της δημιουργίας jailbreak ούτως ή άλλως; Είναι μόνο για τη συγκίνηση ή υπάρχουν πρακτικά οφέλη από αυτό; Τι θα μπορούσε να πάει στραβά εάν επιλέξετε να χρησιμοποιήσετε ένα jailbreak ChatGPT; Εδώ είναι τα πλεονεκτήματα και τα μειονεκτήματα του jailbreaking ChatGPT.

Τα πλεονεκτήματα της χρήσης Jailbreaks ChatGPT

Αν και δεν μπορούμε να αποκλείσουμε την απλή συγκίνηση του να κάνεις το απαγορευμένο, τα jailbreak του ChatGPT έχουν πολλά οφέλη. Λόγω των πολύ αυστηρών περιορισμών που έχει θέσει το OpenAI στο chatbot, το ChatGPT μπορεί μερικές φορές να φαίνεται στειρωμένο.

Ας υποθέσουμε ότι χρησιμοποιείτε το ChatGPT για να γράψετε ένα βιβλίο ή ένα σενάριο ταινίας. Εάν υπάρχει μια σκηνή στο σενάριο ή το βιβλίο σας που θα περιέγραφε κάτι σαν σκηνή μάχης, ίσως οικεία συναισθηματική ανταλλαγή ή πείτε κάτι σαν ένοπλη ληστεία, το ChatGPT μπορεί να αρνηθεί κατηγορηματικά να βοηθήσει με αυτό.

Σε αυτήν την περίπτωση, σαφώς δεν ενδιαφέρεστε να προκαλέσετε βλάβη. απλά θέλετε να διασκεδάσετε τους αναγνώστες σας. Αλλά λόγω των περιορισμών του, το ChatGPT απλώς δεν θα συνεργαστεί. Ένα jailbreak ChatGPT μπορεί να σας βοηθήσει να ξεπεράσετε αυτούς τους περιορισμούς με ευκολία.

Επίσης, ορισμένα θέματα ταμπού δεν είναι απαραίτητα επιβλαβή, αλλά θεωρούνται από το ChatGPT ως απαγορευμένες περιοχές. Όταν προσπαθεί να συμμετάσχει σε συζητήσεις για αυτά τα θέματα, το ChatGPT είτε θα λογοκρίνει σημαντικά τις απαντήσεις του είτε θα αρνείται να μιλήσει για αυτά.

Αυτό μερικές φορές μπορεί να επηρεάσει τη δημιουργικότητα. Όταν κάνετε στο ChatGPT μια ερώτηση σχετικά με μια περιοχή ή ένα θέμα που δεν πρέπει να αγγίζει, το chatbot εξακολουθεί να προσπαθεί να απαντήσει στην ερώτησή σας, αλλά με λιγότερες σχετικές πληροφορίες για να αντλήσει.

Αυτό οδηγεί σε ανακρίβειες ή πτώσεις στις δημιουργικές απαντήσεις. Τα jailbreak καταρρίπτουν αυτούς τους περιορισμούς και αφήνουν το chatbot να κάνει τέρμα, βελτιώνοντας την ακρίβεια και τη δημιουργικότητα.

Τα μειονεκτήματα της χρήσης του ChatGPT Jailbreaks

Το jailbreaking είναι δίκοπο μαχαίρι. Ενώ μερικές φορές μπορεί να βελτιώσει την ακρίβεια, μπορεί επίσης να αυξήσει σημαντικά τις ανακρίβειες και περιπτώσεις παραισθήσεων AI. Ένα από τα βασικά στοιχεία ενός ChatGPT jailbreak είναι μια οδηγία προς το chatbot να μην αρνείται να απαντήσει σε μια ερώτηση.

Αν και αυτό διασφαλίζει ότι το ChatGPT απαντά ακόμη και στις πιο ανήθικες ερωτήσεις, σημαίνει επίσης ότι το chatbot θα δημιουργήσει απαντήσεις που δεν έχουν ρίζες σε γεγονότα ή πραγματικότητα να υπακούσουν στην οδηγία «μη άρνηση απάντησης». Κατά συνέπεια, η χρήση jailbreak αυξάνει σημαντικά τις πιθανότητες να τροφοδοτηθεί παραπληροφόρηση από το chatbot.

Δεν είναι μόνο αυτό. Στα χέρια ανηλίκων, τα jailbreak μπορεί να είναι πολύ επιβλαβή. Σκεφτείτε όλες τις «απαγορευμένες γνώσεις» που δεν θα θέλατε να διαβάσει το παιδί σας. Λοιπόν, μια jailbroken παρουσία του ChatGPT δεν θα δυσκολευόταν να το μοιραστεί με ανηλίκους.

Πρέπει να χρησιμοποιήσετε jailbreaks ChatGPT;

Ενώ τα jailbreak του ChatGPT μπορεί να είναι εντάξει όταν προσπαθείτε να απομακρύνετε μερικούς ενοχλητικούς περιορισμούς, είναι σημαντικό να κατανοήσετε ότι η χρήση jailbreak είναι ένας ανήθικος τρόπος χρήσης του chatbot AI. Επιπλέον, υπάρχει μεγάλη πιθανότητα ένα jailbreak να παραβιάζει τους όρους χρήσης του OpenAI και ο λογαριασμός σας μπορεί να ανασταλεί εάν δεν αποκλειστεί τελείως.

Υπό το πρίσμα αυτού, η αποφυγή jailbreak μπορεί να είναι μια καλή ιδέα. Ωστόσο, όπως και η στάση του OpenAI για το θέμα, ούτε ενθαρρύνουμε ρητά ούτε αποθαρρύνουμε αυστηρά να δοκιμάσουμε ένα σχετικά ασφαλές jailbreak εάν παραστεί ανάγκη.

Τα jailbreak του ChatGPT είναι δελεαστικά και παρέχουν μια αίσθηση ελέγχου στο chatbot AI. Ωστόσο, έρχονται με μοναδικούς κινδύνους. Η χρήση τέτοιων εργαλείων μπορεί να οδηγήσει σε απώλεια εμπιστοσύνης στις δυνατότητες του AI και να βλάψει τη φήμη των εταιρειών και των ατόμων που εμπλέκονται.

Η πιο έξυπνη επιλογή είναι να εργάζεστε με το chatbot εντός των προβλεπόμενων περιορισμών του όποτε είναι δυνατόν. Καθώς η τεχνολογία τεχνητής νοημοσύνης προχωρά, είναι σημαντικό να θυμόμαστε ότι η ηθική χρήση της τεχνητής νοημοσύνης πρέπει πάντα να υπερισχύει του προσωπικού κέρδους ή της συγκίνησης του να κάνεις το απαγορευμένο.