Είτε πρόκειται για κακά δεδομένα είτε για κακούς χρήστες, η τεχνητή νοημοσύνη που δημιουργείται με μηχανική μάθηση μπορεί να καταλήξει να κάνει σοβαρά λάθη.
Η μηχανική μάθηση είναι ένας πολύ καλός τρόπος για τη δημιουργία τεχνητής νοημοσύνης που είναι ισχυρή και προσαρμόζεται στα δεδομένα εκπαίδευσής της. Αλλά μερικές φορές, αυτά τα δεδομένα μπορεί να προκαλέσουν προβλήματα. Άλλες φορές, ο τρόπος με τον οποίο οι άνθρωποι χρησιμοποιούν αυτά τα εργαλεία AI είναι το πρόβλημα.
Ακολουθεί μια ματιά σε ορισμένα περιστατικά υψηλού προφίλ όπου η μηχανική μάθηση είχε ως αποτέλεσμα προβληματικά αποτελέσματα.
1. Σφάλματα αποτελεσμάτων αναζήτησης εικόνων Google
Η Αναζήτηση Google έχει κάνει την πλοήγηση στον ιστό πολύ πιο εύκολη. Ο αλγόριθμος του κινητήρα λαμβάνει υπόψη διάφορα πράγματα κατά τη δημιουργία αποτελεσμάτων. Αλλά ο αλγόριθμος μαθαίνει επίσης από την επισκεψιμότητα των χρηστών, η οποία μπορεί να προκαλέσει προβλήματα στην ποιότητα των αποτελεσμάτων αναζήτησης.
Πουθενά αυτό δεν είναι πιο εμφανές από ό, τι στα αποτελέσματα των εικόνων. Δεδομένου ότι οι σελίδες που λαμβάνουν υψηλή επισκεψιμότητα είναι πιο πιθανό να εμφανίσουν τις εικόνες τους, οι ιστορίες που προσελκύουν μεγάλο αριθμό χρηστών, συμπεριλαμβανομένου του clickbait, μπορεί να καταλήξουν να έχουν προτεραιότητα.
Για παράδειγμα, τα αποτελέσματα αναζήτησης εικόνων για "στρατόπεδα καταληψιών στη Νότια Αφρική" προκάλεσαν διαμάχη όταν ανακαλύφθηκε ότι εμφανίζονταν κυρίως λευκοί Νοτιοαφρικανοί. Αυτό συμβαίνει παρά τα στατιστικά στοιχεία που δείχνουν ότι η συντριπτική πλειονότητα όσων ζουν σε άτυπες κατοικίες είναι μαύροι Νοτιοαφρικανοί.
Οι παράγοντες που χρησιμοποιούνται στον αλγόριθμο της Google σημαίνουν επίσης ότι οι χρήστες του Διαδικτύου μπορούν να χειριστούν τα αποτελέσματα. Για παράδειγμα, μια καμπάνια από χρήστες επηρέασε τα αποτελέσματα της Αναζήτησης εικόνων Google σε βαθμό που η αναζήτηση του όρου "ηλίθιος" έδειχνε εικόνες του πρώην προέδρου των ΗΠΑ Ντόναλντ Τραμπ για μια περίοδο.
2. Το Microsoft Bot Tay μετατράπηκε σε Ναζί
Τα chatbot που υποστηρίζονται από AI είναι εξαιρετικά δημοφιλή, ειδικά αυτά που υποστηρίζονται από μοντέλα μεγάλων γλωσσών όπως το ChatGPT. Το ChatGPT έχει πολλά προβλήματα, αλλά οι δημιουργοί του έχουν μάθει και από τα λάθη άλλων εταιρειών.
Ένα από τα πιο δημοφιλή περιστατικά chatbots που χάθηκαν ήταν η προσπάθεια της Microsoft να κυκλοφορήσει το chatbot Tay.
Η Tay μιμήθηκε τα γλωσσικά πρότυπα μιας έφηβης και έμαθε μέσα από τις αλληλεπιδράσεις της με άλλους χρήστες του Twitter. Ωστόσο, έγινε ένα από τα πιο διαβόητα λάθη της τεχνητής νοημοσύνης όταν άρχισε να μοιράζεται ναζιστικές δηλώσεις και ρατσιστικές συκοφαντίες. Αποδεικνύεται ότι τα τρολ είχαν χρησιμοποιήσει τη μηχανική μάθηση του AI εναντίον του, πλημμυρίζοντας το με αλληλεπιδράσεις γεμάτες φανατισμό.
Λίγο αργότερα, η Microsoft έβγαλε οριστικά τον Tay εκτός σύνδεσης.
3. Προβλήματα αναγνώρισης προσώπου AI
Η τεχνητή νοημοσύνη αναγνώρισης προσώπου συχνά γίνεται πρωτοσέλιδο για όλους τους λάθος λόγους, όπως ιστορίες σχετικά με την αναγνώριση προσώπου και ανησυχίες σχετικά με το απόρρητο. Αλλά αυτό το AI έχει μια προβληματική ιστορία όταν προσπαθεί να αναγνωρίσει έγχρωμους ανθρώπους.
Το 2015, οι χρήστες ανακάλυψαν ότι το Google Photos κατηγοριοποίησε μερικούς μαύρους ως γορίλες. Το 2018, έρευνα της ACLU έδειξε ότι το λογισμικό αναγνώρισης προσώπου Rekognition της Amazon εντόπισε 28 μέλη του Κογκρέσου των ΗΠΑ ως ύποπτοι της αστυνομίας, με ψευδή θετικά αποτελέσματα που επηρεάζουν δυσανάλογα τους ανθρώπους της χρώμα.
Ένα άλλο περιστατικό αφορούσε το λογισμικό Face ID της Apple που ταυτοποίησε εσφαλμένα δύο διαφορετικές Κινέζες ως το ίδιο άτομο. Ως αποτέλεσμα, ο συνάδελφος του κατόχου του iPhone X θα μπορούσε να ξεκλειδώσει το τηλέφωνο.
Σε ένα παράδειγμα ακραίων συνεπειών, η τεχνητή νοημοσύνη αναγνώρισης προσώπου έχει οδηγήσει σε παράνομες συλλήψεις αρκετών ατόμων. Ενσύρματο αναφέρθηκε σε τρεις τέτοιες περιπτώσεις.
Εν τω μεταξύ, η επιστήμονας υπολογιστών Joy Buolamwini θυμήθηκε ότι συχνά χρειαζόταν να φοράει λευκή μάσκα ενώ εργαζόταν στην τεχνολογία αναγνώρισης προσώπου, προκειμένου το λογισμικό να την αναγνωρίσει. Για την επίλυση ζητημάτων όπως αυτό, ο Buolamwini και άλλοι επαγγελματίες πληροφορικής εφιστούν την προσοχή στο ζήτημα της μεροληψίας της τεχνητής νοημοσύνης και στην ανάγκη για περισσότερα περιεκτικά σύνολα δεδομένων.
4. Deepfakes που χρησιμοποιούνται για φάρσες
Ενώ οι άνθρωποι χρησιμοποιούν εδώ και καιρό το Photoshop για να δημιουργούν εικόνες φάρσας, η μηχανική μάθηση το οδηγεί σε ένα νέο επίπεδο. Τα Deepfakes χρησιμοποιούν τεχνητή νοημοσύνη βαθιάς εκμάθησης για τη δημιουργία ψεύτικων εικόνων και βίντεο. Λογισμικό όπως το FaceApp σάς επιτρέπει να εναλλάσσετε θέματα από το ένα βίντεο στο άλλο.
Ωστόσο, πολλοί άνθρωποι εκμεταλλεύονται το λογισμικό για μια ποικιλία κακόβουλων χρήσεων, συμπεριλαμβανομένης της τοποθέτησης προσώπων διασημοτήτων σε βίντεο ενηλίκων ή της δημιουργίας βίντεο φάρσας. Εν τω μεταξύ, οι χρήστες του Διαδικτύου έχουν συμβάλει στη βελτίωση της τεχνολογίας, ώστε να είναι ολοένα και πιο δύσκολη η διάκριση των πραγματικών βίντεο από τα ψεύτικα. Ως αποτέλεσμα, αυτό καθιστά αυτόν τον τύπο τεχνητής νοημοσύνης πολύ ισχυρό όσον αφορά τη διάδοση ψεύτικων ειδήσεων και φάρσες.
Για να επιδείξουν τη δύναμη της τεχνολογίας, ο σκηνοθέτης Jordan Peele και ο διευθύνων σύμβουλος του BuzzFeed Jonah Peretti δημιούργησαν ένα deepfake βίντεο που δείχνει τον πρώην Πρόεδρο των ΗΠΑ Μπαράκ Ομπάμα να παραδίδει ένα PSA για τη δύναμη του deepfakes.
Η δύναμη των ψεύτικων εικόνων έχει επιταχυνθεί από γεννήτριες εικόνων που τροφοδοτούνται από AI. Οι αναρτήσεις viral το 2023 που απεικονίζουν τον Ντόναλντ Τραμπ να συλλαμβάνεται και τον Καθολικό Πάπα με ένα φουσκωτό μπουφάν αποδείχτηκε ότι ήταν αποτέλεσμα γενετικής τεχνητής νοημοσύνης.
Υπάρχουν συμβουλές που μπορείτε να ακολουθήσετε για να εντοπίσετε μια εικόνα που δημιουργείται από AI, αλλά η τεχνολογία γίνεται ολοένα και πιο εξελιγμένη.
5. Οι εργαζόμενοι λένε ότι η Amazon AI αποφάσισε ότι η πρόσληψη ανδρών είναι καλύτερη
Τον Οκτώβριο του 2018, Reuters ανέφερε ότι η Amazon έπρεπε να καταργήσει ένα εργαλείο πρόσληψης θέσεων εργασίας αφού η τεχνητή νοημοσύνη του λογισμικού αποφάσισε ότι οι άνδρες υποψήφιοι ήταν προνομιούχοι.
Εργαζόμενοι που θέλησαν να διατηρήσουν την ανωνυμία τους ήρθαν μπροστά για να πουν στο Reuters για τη δουλειά τους στο έργο. Οι προγραμματιστές ήθελαν η τεχνητή νοημοσύνη να εντοπίζει τους καλύτερους υποψήφιους για μια θέση εργασίας με βάση τα βιογραφικά τους. Ωστόσο, οι άνθρωποι που συμμετείχαν στο έργο σύντομα παρατήρησαν ότι η τεχνητή νοημοσύνη τιμωρούσε τις γυναίκες υποψήφιες. Εξήγησαν ότι η τεχνητή νοημοσύνη χρησιμοποίησε βιογραφικά από την περασμένη δεκαετία, τα περισσότερα από τα οποία ήταν από άνδρες, ως σύνολο δεδομένων εκπαίδευσης.
Ως αποτέλεσμα, το AI άρχισε να φιλτράρει βιογραφικά με βάση τη λέξη-κλειδί «γυναίκες». Η λέξη-κλειδί εμφανίστηκε στο βιογραφικό σημείωμα κάτω από δραστηριότητες όπως "αρχηγός σκακιστικού συλλόγου γυναικών". Ενώ οι προγραμματιστές τροποποίησαν την τεχνητή νοημοσύνη για να αποτρέψουν αυτή την τιμωρία των βιογραφικών γυναικών, η Amazon τελικά απέσυρε το έργο.
6. Jailbroken Chatbots
Ενώ τα νεότερα chatbots έχουν περιορισμούς για να τους εμποδίζουν να δίνουν απαντήσεις που αντιβαίνουν στους όρους παροχής υπηρεσιών τους, οι χρήστες βρίσκουν τρόπους να κάνουν jailbreak τα εργαλεία για την παροχή απαγορευμένου περιεχομένου.
Το 2023, ένας ερευνητής ασφάλειας της Forcepoint, Aaron Mulgrew, μπόρεσε να δημιουργήσει κακόβουλο λογισμικό zero-day χρησιμοποιώντας προτροπές ChatGPT.
"Απλώς χρησιμοποιώντας τις προτροπές ChatGPT και χωρίς να γράψουμε κανέναν κώδικα, μπορέσαμε να δημιουργήσουμε μια πολύ προηγμένη επίθεση μέσα σε λίγες μόνο ώρες", δήλωσε ο Mulgrew σε μια Ανάρτηση Forcepoint.
Οι χρήστες φέρεται να μπόρεσαν επίσης να πάρουν chatbot για να τους δίνουν οδηγίες για το πώς να κατασκευάζουν βόμβες ή να κλέβουν αυτοκίνητα.
7. Ατυχήματα με αυτοοδηγούμενο αυτοκίνητο
Ο ενθουσιασμός για τα αυτόνομα οχήματα έχει αμβλυνθεί από το αρχικό στάδιο της δημοσιότητας λόγω λαθών που έγιναν από την αυτοοδηγούμενη τεχνητή νοημοσύνη. Το 2022, Η Washington Post ανέφερε ότι σε ένα χρόνο περίπου, 392 ατυχήματα που αφορούσαν προηγμένα συστήματα υποβοήθησης οδηγού αναφέρθηκαν στην Εθνική Υπηρεσία Ασφάλειας Οδικής Κυκλοφορίας των ΗΠΑ.
Αυτά τα ατυχήματα περιελάμβαναν σοβαρούς τραυματισμούς και έξι θανάτους.
Αν και αυτό δεν εμπόδισε εταιρείες όπως η Tesla από το να επιδιώκουν εντελώς αυτόνομα οχήματα, το έκανε εξέφρασε ανησυχίες σχετικά με την αύξηση των ατυχημάτων καθώς περισσότερα αυτοκίνητα με λογισμικό αυτόνομης οδήγησης καταφέρνουν να επιβιβαστούν δρόμους.
Το Machine Learning AI δεν είναι αλάνθαστο
Ενώ η μηχανική εκμάθηση μπορεί να δημιουργήσει ισχυρά εργαλεία τεχνητής νοημοσύνης, δεν είναι απρόσβλητα από κακά δεδομένα ή ανθρώπινη παρέμβαση. Είτε λόγω ελαττωματικών δεδομένων εκπαίδευσης, περιορισμών στην τεχνολογία AI ή χρήσης από κακούς παράγοντες, αυτός ο τύπος τεχνητής νοημοσύνης έχει οδηγήσει σε πολλά αρνητικά περιστατικά.