Πολλοί από εμάς χρησιμοποιούμε το ChatGPT επιπόλαια, αλλά συνοδεύεται από σοβαρά ζητήματα ασφάλειας και απορρήτου που πρέπει να γνωρίζετε.

Τον Ιανουάριο του 2023, μόλις δύο μήνες μετά την κυκλοφορία, το ChatGPT (Generative Pre-trained Transformer) έγινε η ταχύτερα αναπτυσσόμενη εφαρμογή όλων των εποχών, συγκεντρώνοντας περισσότερους από 100 εκατομμύρια χρήστες.

Το προηγμένο chatbot του OpenAI μπορεί να έχει αναζωογονήσει το ενδιαφέρον του κοινού για την τεχνητή νοημοσύνη, αλλά λίγοι έχουν σκεφτεί σοβαρά τους πιθανούς κινδύνους ασφαλείας που συνδέονται με αυτό το προϊόν.

ChatGPT: Απειλές και ζητήματα ασφαλείας

Η τεχνολογία που υποστηρίζει το ChatGPT και άλλα chatbot μπορεί να είναι παρόμοια, αλλά το ChatGPT ανήκει σε μια δική του κατηγορία. Αυτά είναι υπέροχα νέα αν σκοπεύετε να το χρησιμοποιήσετε ως ένα είδος προσωπικού βοηθού, αλλά ανησυχητικό αν σκεφτείτε ότι το χρησιμοποιούν και οι φορείς απειλής.

Οι κυβερνοεγκληματίες μπορούν χρησιμοποιήστε το ChatGPT για να γράψετε κακόβουλο λογισμικό

, να δημιουργήσετε ιστοτόπους απάτης, να δημιουργήσετε μηνύματα ηλεκτρονικού ψαρέματος, να δημιουργήσετε ψευδείς ειδήσεις και ούτω καθεξής. Εξαιτίας αυτού, το ChatGPT μπορεί να είναι μεγαλύτερος κίνδυνος για την ασφάλεια στον κυβερνοχώρο παρά όφελος, όπως Υπολογιστής Bleeping βάλτο σε ανάλυση.

Ταυτόχρονα, υπάρχουν σοβαρές ανησυχίες ότι το ίδιο το ChatGPT έχει ορισμένα αδιευκρίνιστα τρωτά σημεία. Για παράδειγμα, τον Μάρτιο του 2023, εμφανίστηκαν αναφορές σχετικά με ορισμένους χρήστες που μπορούσαν να δουν τίτλους συνομιλιών άλλων. Οπως και Το χείλος αναφέρθηκε τότε, ο Διευθύνων Σύμβουλος του OpenAI Sam Altman εξήγησε ότι "ένα σφάλμα σε μια βιβλιοθήκη ανοιχτού κώδικα" είχε προκαλέσει το πρόβλημα.

Αυτό απλώς υπογραμμίζει πόσο σημαντικό είναι περιορίστε τι μοιράζεστε με το ChatGPT, το οποίο συλλέγει έναν εκπληκτικό όγκο δεδομένων από προεπιλογή. Ο τεχνολογικός κολοσσός Samsung το έμαθε αυτό με τον δύσκολο τρόπο, όταν μια ομάδα εργαζομένων που χρησιμοποιούσαν το chatbot ως βοηθός διέρρευσαν κατά λάθος εμπιστευτικές πληροφορίες σε αυτό.

Είναι το ChatGPT απειλή για το απόρρητό σας;

Η ασφάλεια και το απόρρητο δεν είναι ένα και το αυτό, αλλά συνδέονται στενά και συχνά τέμνονται. Εάν το ChatGPT αποτελεί απειλή για την ασφάλεια, τότε αποτελεί επίσης απειλή για το απόρρητο και το αντίστροφο. Τι σημαίνει όμως αυτό με πιο πρακτικούς όρους; Πώς είναι οι πολιτικές ασφάλειας και απορρήτου του ChatGPT;

Δισεκατομμύρια λέξεις αφαιρέθηκαν από το διαδίκτυο για να δημιουργηθεί η τεράστια βάση δεδομένων του ChatGPT. Αυτή η βάση δεδομένων βρίσκεται σε συνεχή κατάσταση επέκτασης, καθώς το ChatGPT αποθηκεύει οτιδήποτε μοιράζονται οι χρήστες. Ο μη κερδοσκοπικός οργανισμός με έδρα τις ΗΠΑ ΚΟΙΝΗ ΛΟΓΙΚΗ έδωσε στο ChatGPT βαθμολογία αξιολόγησης απορρήτου 61 τοις εκατό, σημειώνοντας ότι το chatbot συλλέγει Προσωπικά Αναγνωρίσιμα στοιχεία (PII) και άλλα ευαίσθητα δεδομένα. Τα περισσότερα από αυτά τα δεδομένα αποθηκεύονται ή μοιράζονται με ορισμένα τρίτα μέρη.

Σε κάθε περίπτωση, θα πρέπει να είστε προσεκτικοί όταν χρησιμοποιείτε το ChatGPT, ειδικά αν το χρησιμοποιείτε για δουλειά, ή για την επεξεργασία ευαίσθητων πληροφοριών. Ως γενικός εμπειρικός κανόνας, δεν πρέπει να μοιράζεστε με το bot αυτό που δεν θα θέλατε να μάθει το κοινό.

Αντιμετώπιση των κινδύνων ασφαλείας που σχετίζονται με το ChatGPT

Η τεχνητή νοημοσύνη θα ρυθμιστεί κάποια στιγμή, αλλά είναι δύσκολο να φανταστεί κανείς έναν κόσμο στον οποίο δεν αποτελεί απειλή για την ασφάλεια. Όπως όλες οι τεχνολογίες, μπορεί —και θα γίνει— κατάχρηση.

Στο μέλλον, τα chatbots θα γίνουν αναπόσπαστο μέρος των μηχανών αναζήτησης, των φωνητικών βοηθών και των κοινωνικών δικτύων, σύμφωνα με Malwarebytes. Και θα έχουν να παίξουν ρόλο σε διάφορους κλάδους, που κυμαίνονται από την υγειονομική περίθαλψη και την εκπαίδευση, μέχρι τη χρηματοδότηση και την ψυχαγωγία.

Αυτό θα αλλάξει ριζικά την ασφάλεια όπως τη γνωρίζουμε. Όμως, όπως σημείωσε επίσης η Malwarebytes, το ChatGPT και παρόμοια εργαλεία μπορούν να χρησιμοποιηθούν και από επαγγελματίες της κυβερνοασφάλειας. για παράδειγμα για να αναζητήσετε σφάλματα στο λογισμικό ή "ύποπτα μοτίβα" στη δραστηριότητα του δικτύου.

Η αύξηση της ευαισθητοποίησης είναι το κλειδί

Τι θα είναι ικανό το ChatGPT σε πέντε ή 10 χρόνια από τώρα; Μπορούμε μόνο να κάνουμε εικασίες, αλλά αυτό που γνωρίζουμε με βεβαιότητα είναι ότι η τεχνητή νοημοσύνη δεν οδηγεί πουθενά.

Καθώς εμφανίζονται ακόμη πιο προηγμένα chatbots, ολόκληρες βιομηχανίες θα πρέπει να προσαρμοστούν και να μάθουν πώς να τα χρησιμοποιούν υπεύθυνα. Αυτό περιλαμβάνει τη βιομηχανία της κυβερνοασφάλειας, η οποία ήδη διαμορφώνεται από την τεχνητή νοημοσύνη. Η ευαισθητοποίηση σχετικά με τους κινδύνους ασφαλείας που συνδέονται με την τεχνητή νοημοσύνη είναι καίριας σημασίας και θα βοηθήσει να διασφαλιστεί ότι αυτές οι τεχνολογίες αναπτύσσονται και χρησιμοποιούνται με ηθικό τρόπο.