Το Generative AI είναι υπέροχο, αλλά παρουσιάζει πάντα τις πληροφορίες του με απόλυτη εξουσία. Κάτι που είναι υπέροχο εκτός κι αν παραισθήσεις την αλήθεια.
Η ψευδαίσθηση της Τεχνητής Νοημοσύνης (AI) ακούγεται περίεργη. Πιθανότατα σκέφτεστε, "Δεν είναι η ψευδαίσθηση ένα ανθρώπινο φαινόμενο;" Λοιπόν, ναι, κάποτε ήταν αποκλειστικά άνθρωπος φαινόμενο μέχρι που η τεχνητή νοημοσύνη άρχισε να παρουσιάζει ανθρώπινα χαρακτηριστικά όπως η αναγνώριση προσώπου, η αυτομάθηση και η ομιλία αναγνώριση.
Δυστυχώς, η τεχνητή νοημοσύνη προσέλαβε ορισμένα αρνητικά χαρακτηριστικά, συμπεριλαμβανομένων των παραισθήσεων. Λοιπόν, είναι η ψευδαίσθηση της τεχνητής νοημοσύνης παρόμοια με το είδος της ψευδαίσθησης που βιώνουν οι άνθρωποι;
Τι είναι η ψευδαίσθηση AI;
Η ψευδαίσθηση τεχνητής νοημοσύνης εμφανίζεται όταν ένα μοντέλο AI παράγει αποτελέσματα διαφορετικά από τα αναμενόμενα. Λάβετε υπόψη ότι ορισμένα μοντέλα τεχνητής νοημοσύνης είναι εκπαιδευμένα ώστε να δημιουργούν σκόπιμα αποτελέσματα που δεν σχετίζονται με οποιαδήποτε είσοδο (δεδομένα) του πραγματικού κόσμου.
Για παράδειγμα, κορυφαίες γεννήτριες κειμένου σε τέχνη AI, όπως το DALL-E 2, μπορεί να δημιουργήσει δημιουργικά νέες εικόνες που μπορούμε να τις χαρακτηρίσουμε ως "ψευδαισθήσεις", καθώς δεν βασίζονται σε δεδομένα του πραγματικού κόσμου.
Παραίσθηση AI σε μεγάλα μοντέλα επεξεργασίας γλώσσας
Ας εξετάσουμε πώς θα ήταν η ψευδαίσθηση AI σε ένα μεγάλο μοντέλο επεξεργασίας γλώσσας όπως το ChatGPT. Μια ψευδαίσθηση ChatGPT θα είχε ως αποτέλεσμα το bot να σας δώσει ένα εσφαλμένο γεγονός με κάποιους ισχυρισμούς, έτσι ώστε φυσικά να θεωρείτε αλήθεια αυτά τα γεγονότα.
Με απλά λόγια, είναι κατασκευασμένες δηλώσεις από το τεχνητά ευφυές chatbot. Εδώ είναι ένα παράδειγμα:
Σε περαιτέρω ερώτημα, το ChatGPT εμφανίστηκε με αυτό:
Ψευδαίσθηση AI στην όραση υπολογιστή
Ας εξετάσουμε ένα άλλο πεδίο της τεχνητής νοημοσύνης που μπορεί να βιώσει παραισθήσεις AI: Computer Vision. Το παρακάτω κουίζ δείχνει ένα μοντάζ 4x4 με δύο οντότητες που μοιάζουν τόσο πολύ. Οι εικόνες είναι ένα μείγμα από πατάτες μπάρμπεκιου και φύλλα.
Η πρόκληση είναι να επιλέξετε τα πατατάκια χωρίς να χτυπήσετε κανένα φύλλο στο μοντάζ. Αυτή η εικόνα μπορεί να φαίνεται δύσκολη σε έναν υπολογιστή και μπορεί να μην μπορεί να κάνει διάκριση μεταξύ των πατατών BBQ και των φύλλων.
Ακολουθεί ένα άλλο μοντάζ με ένα μείγμα από κουλούρι από κανίς και χοιρινό νήμα. Ένας υπολογιστής πιθανότατα δεν θα μπορούσε να διακρίνει μεταξύ τους, επομένως θα αναμειγνύει τις εικόνες.
Γιατί εμφανίζεται η ψευδαίσθηση του AI;
Η ψευδαίσθηση της τεχνητής νοημοσύνης μπορεί να συμβεί λόγω αντίθετων παραδειγμάτων—εισαγωγή δεδομένων που ξεγελούν μια εφαρμογή τεχνητής νοημοσύνης ώστε να τα ταξινομήσει εσφαλμένα. Για παράδειγμα, όταν εκπαιδεύουν εφαρμογές τεχνητής νοημοσύνης, οι προγραμματιστές χρησιμοποιούν δεδομένα (εικόνα, κείμενο ή άλλα). Εάν τα δεδομένα αλλάξουν ή παραμορφωθούν, η εφαρμογή ερμηνεύει διαφορετικά την είσοδο, δίνοντας λάθος έξοδο.
Αντίθετα, ένας άνθρωπος μπορεί ακόμα να αναγνωρίσει και να αναγνωρίσει τα δεδομένα με ακρίβεια παρά τις στρεβλώσεις. Μπορούμε να το επισημάνουμε ως κοινή λογική - ένα ανθρώπινο χαρακτηριστικό που το AI δεν διαθέτει ακόμη. Παρακολουθήστε πώς η τεχνητή νοημοσύνη ξεγελιέται με αντίθετα παραδείγματα σε αυτό το βίντεο:
Όσον αφορά μεγάλα μοντέλα που βασίζονται σε γλώσσα όπως π.χ Το ChatGPT και οι εναλλακτικές του, οι παραισθήσεις μπορεί να προκύψουν από ανακριβή αποκωδικοποίηση από τον μετασχηματιστή (μοντέλο μηχανικής εκμάθησης).
Στην τεχνητή νοημοσύνη, ένας μετασχηματιστής είναι ένα μοντέλο βαθιάς μάθησης που χρησιμοποιεί αυτοπροσοχή (σημασιολογικές σχέσεις μεταξύ λέξεων στο μια πρόταση) για την παραγωγή κειμένου παρόμοιου με αυτό που θα έγραφε ένας άνθρωπος χρησιμοποιώντας έναν κωδικοποιητή-αποκωδικοποιητή (εισόδου-εξόδου) αλληλουχία.
Έτσι, οι μετασχηματιστές, ένα ημι-εποπτευόμενο μοντέλο μηχανικής μάθησης, μπορούν να δημιουργήσουν ένα νέο σώμα κειμένου (έξοδο) από το μεγάλο σώμα δεδομένων κειμένου που χρησιμοποιείται στην εκπαίδευσή του (εισαγωγή). Το κάνει προβλέποντας την επόμενη λέξη σε μια σειρά με βάση τις προηγούμενες λέξεις.
Όσον αφορά την ψευδαίσθηση, εάν ένα γλωσσικό μοντέλο είχε εκπαιδευτεί σε ανεπαρκή και ανακριβή δεδομένα και πόρους, αναμένεται ότι η έξοδος θα ήταν κατασκευασμένη και ανακριβής. Το γλωσσικό μοντέλο μπορεί να δημιουργήσει μια ιστορία ή μια αφήγηση χωρίς λογικές ασυνέπειες ή ασαφείς συνδέσεις.
Στο παρακάτω παράδειγμα, ζητήθηκε από το ChatGPT να δώσει μια λέξη παρόμοια με "εξέγερση" και ξεκινά με "β". Ιδού η απάντησή του:
Σε περαιτέρω έρευνα, συνέχισε να δίνει λάθος απαντήσεις, με υψηλό επίπεδο εμπιστοσύνης.
Γιατί λοιπόν το ChatGPT δεν μπορεί να δώσει ακριβή απάντηση σε αυτά τα μηνύματα;
Μπορεί το γλωσσικό μοντέλο να μην είναι εξοπλισμένο για να χειρίζεται μάλλον πολύπλοκα μηνύματα όπως αυτά ή αυτά δεν μπορεί να ερμηνεύσει την προτροπή με ακρίβεια, αγνοώντας την προτροπή για να δώσει μια παρόμοια λέξη με μια συγκεκριμένη αλφάβητο.
Πώς εντοπίζετε την ψευδαίσθηση AI;
Είναι προφανές τώρα ότι οι εφαρμογές τεχνητής νοημοσύνης έχουν τη δυνατότητα να προκαλούν ψευδαισθήσεις — να δημιουργούν απαντήσεις διαφορετικά από την αναμενόμενη έξοδο (γεγονός ή αλήθεια) χωρίς κακόβουλη πρόθεση. Και ο εντοπισμός και η αναγνώριση παραισθήσεων τεχνητής νοημοσύνης εξαρτάται από τους χρήστες τέτοιων εφαρμογών.
Ακολουθούν μερικοί τρόποι για να εντοπίσετε παραισθήσεις τεχνητής νοημοσύνης ενώ χρησιμοποιείτε κοινές εφαρμογές τεχνητής νοημοσύνης:
1. Μεγάλα μοντέλα επεξεργασίας γλώσσας
Αν και σπάνιο, εάν παρατηρήσετε ένα γραμματικό λάθος στο περιεχόμενο που παράγεται από ένα μεγάλο μοντέλο επεξεργασίας, όπως το ChatGPT, αυτό θα πρέπει να ανασηκωθεί και να σας κάνει να υποψιαστείτε ότι έχετε παραισθήσεις. Ομοίως, όταν το περιεχόμενο που δημιουργείται από κείμενο δεν ακούγεται λογικό, δεν συσχετίζεται με το πλαίσιο που δίνεται ή δεν ταιριάζει με τα δεδομένα εισόδου, θα πρέπει να υποψιάζεστε μια ψευδαίσθηση.
Η χρήση ανθρώπινης κρίσης ή κοινής λογικής μπορεί να βοηθήσει στην ανίχνευση παραισθήσεων, καθώς οι άνθρωποι μπορούν εύκολα να αναγνωρίσουν πότε ένα κείμενο δεν έχει νόημα ή δεν ακολουθεί την πραγματικότητα.
2. Computer Vision
Ως κλάδος της τεχνητής νοημοσύνης, της μηχανικής μάθησης και της επιστήμης των υπολογιστών, η όραση υπολογιστών δίνει τη δυνατότητα στους υπολογιστές να αναγνωρίζουν και να επεξεργάζονται εικόνες όπως τα ανθρώπινα μάτια. Χρησιμοποιώντας συνελικτικά νευρωνικά δίκτυα, βασίζονται στον απίστευτο όγκο των οπτικών δεδομένων που χρησιμοποιούνται στην εκπαίδευσή τους.
Μια απόκλιση από τα μοτίβα των οπτικών δεδομένων που χρησιμοποιούνται στην προπόνηση θα οδηγήσει σε παραισθήσεις. Για παράδειγμα, εάν ένας υπολογιστής δεν είχε εκπαιδευτεί με εικόνες μπάλας του τένις, θα μπορούσε να το αναγνωρίσει ως πράσινο πορτοκαλί. Ή εάν ένας υπολογιστής αναγνωρίσει ένα άλογο δίπλα σε ένα ανθρώπινο άγαλμα ως ένα άλογο δίπλα σε έναν πραγματικό άνθρωπο, τότε έχει συμβεί μια ψευδαίσθηση AI.
Έτσι, για να εντοπίσετε μια ψευδαίσθηση όρασης υπολογιστή, συγκρίνετε την έξοδο που παράγεται με αυτό που αναμένεται να δει ένας [κανονικός] άνθρωπος.
3. Αυτοοδηγούμενα Αυτοκίνητα
Χάρη στην τεχνητή νοημοσύνη, τα αυτόνομα αυτοκίνητα διεισδύουν σταδιακά στην αγορά αυτοκινήτων. Πρωτοπόροι όπως το Tesla Autopilot και το BlueCruise της Ford υπερασπίζονται τη σκηνή των αυτοοδηγούμενων αυτοκινήτων. Μπορείτε να ελέγξετε έξω πώς και τι βλέπει ο αυτόματος πιλότος της Tesla για να κατανοήσετε λίγο τον τρόπο με τον οποίο η τεχνητή νοημοσύνη εξουσιοδοτεί τα αυτοοδηγούμενα αυτοκίνητα.
Εάν διαθέτετε ένα από αυτά τα αυτοκίνητα, θα θέλατε να μάθετε εάν το αυτοκίνητό σας με τεχνητή νοημοσύνη έχει παραισθήσεις. Ένα σημάδι θα είναι εάν το όχημά σας φαίνεται να αποκλίνει από τα συνήθη πρότυπα συμπεριφοράς του κατά την οδήγηση. Για παράδειγμα, εάν το όχημα φρενάρει ή στραβώσει ξαφνικά χωρίς προφανή λόγο, το όχημά σας με τεχνητή νοημοσύνη μπορεί να έχει παραισθήσεις.
Τα συστήματα AI μπορούν επίσης να έχουν παραισθήσεις
Οι άνθρωποι και τα μοντέλα τεχνητής νοημοσύνης βιώνουν τις παραισθήσεις διαφορετικά. Όσον αφορά την τεχνητή νοημοσύνη, οι παραισθήσεις αναφέρονται σε λανθασμένα αποτελέσματα που απέχουν χιλιόμετρα από την πραγματικότητα ή δεν έχουν νόημα στο πλαίσιο της συγκεκριμένης προτροπής. Για παράδειγμα, ένα chatbot AI μπορεί να δώσει μια γραμματικά ή λογικά εσφαλμένη απάντηση ή να αναγνωρίσει εσφαλμένα ένα αντικείμενο λόγω θορύβου ή άλλων δομικών παραγόντων.
Οι παραισθήσεις AI δεν προκύπτουν από ένα συνειδητό ή υποσυνείδητο μυαλό, όπως θα παρατηρούσατε στους ανθρώπους. Αντίθετα, προκύπτει από ανεπάρκεια ή ανεπάρκεια των δεδομένων που χρησιμοποιούνται για την εκπαίδευση και τον προγραμματισμό του συστήματος AI.