Το Tay AI της Microsoft μετατράπηκε από μια πολλά υποσχόμενη τεχνητή νοημοσύνη σε μια ολοκληρωτική καταστροφή σε λιγότερο από μια μέρα. Δείτε τι έμαθε η εταιρεία.

Τα chatbot AI, όπως το ChatGPT, γίνονται όλο και περισσότερο αναπόσπαστο μέρος της σύγχρονης τεχνολογίας, αλλά άγνωστο σε πολλούς, η γενετική τεχνητή νοημοσύνη δεν ήταν πάντα τόσο καλή όσο σήμερα. Στην πραγματικότητα, το 2016, το chatbot Tay της Microsoft μας έδειξε πόσο γρήγορα η τεχνητή νοημοσύνη μπορεί να αποτύχει.

Ας εξερευνήσουμε τι ήταν το chatbot τεχνητής νοημοσύνης της Microsoft Tay, γιατί απέτυχε, τις διαμάχες του και τα μαθήματα που πήρε η εταιρεία μετά την καταστροφική της αποτυχία.

Τι ήταν ο Tay της Microsoft;

Το Tay ήταν ένα chatbot AI που αναπτύχθηκε από τη Microsoft και διατέθηκε μέσω Twitter στις 23 Μαρτίου 2016. Το chatbot αναπτύχθηκε για νέους ηλικίας 18 έως 24 ετών στις ΗΠΑ για "ψυχαγωγικούς σκοπούς" και για "πειραματισμό και διεξαγωγή έρευνας σχετικά με την κατανόηση της συνομιλίας".

Ο Tay δεν προοριζόταν να είναι ένα εξελιγμένο chatbot όπως το ChatGPT, αλλά ένα φιλικό ρομπότ AI στο Twitter με το οποίο θα μπορούσατε να συνομιλήσετε - κάπως σαν

instagram viewer
Το AI μου στο Snapchat, αλλά για κοινωνικοποίηση.

Γιατί η Microsoft έκλεισε το Tay;

Η Microsoft απέσυρε τον Tay μέσα σε 24 ώρες από τη μετάδοση του live — για έναν καλό λόγο. Σχεδόν αμέσως μετά την εισαγωγή του Tay, οι χρήστες του Twitter άρχισαν να κάνουν κατάχρηση της υπηρεσίας τροφοδοτώντας το chatbot παραπληροφόρηση, διδάσκοντας υποτιμητικούς όρους και ωθώντας το να είναι όλο και πιο προσβλητικό για να δούμε πόσο μακριά είναι Θα πήγαινα.

Και πράγματι πήγε μακριά. Μέσα σε λίγες ώρες από την κυκλοφορία, ο Tay δημοσίευσε στο Twitter μερικές από τις πιο προσβλητικές ρατσιστικές συκοφαντίες, διέδιδε ρητορική μίσους, προωθούσε τον ναζισμό και ακόμη και εμπνέει έναν «φυλετικό πόλεμο». Ναι! Σαφώς, η Microsoft περνούσε απαίσια και δεν μπορούσε να αφήσει την υπηρεσία να συνεχιστεί.

Σε ένα ανάρτηση στο Επίσημο Blog της Microsoft, ο Εταιρικός Αντιπρόεδρος της Microsoft Peter Lee επανέλαβε το ίδιο:

Λυπούμαστε βαθιά για τα ακούσια προσβλητικά και προσβλητικά tweets από τον Tay, τα οποία δεν αντιπροσωπεύουν ποιοι είμαστε ή τι αντιπροσωπεύουμε, ούτε πώς σχεδιάσαμε τον Tay. Ο Tay είναι πλέον εκτός σύνδεσης και θα προσπαθήσουμε να επαναφέρουμε τον Tay μόνο όταν είμαστε σίγουροι ότι μπορούμε να προβλέψουμε καλύτερα κακόβουλη πρόθεση που έρχεται σε σύγκρουση με τις αρχές και τις αξίες μας.

Η καταστροφή του Tay είναι μόνο ένα από τα πολλά κινδύνους της τεχνητής νοημοσύνης και μια ισχυρή υπενθύμιση του γιατί η ανάπτυξή του πρέπει να γίνει με τη μέγιστη προσοχή και επίβλεψη.

6 μαθήματα που πήρε η Microsoft μετά τον Tay

Το Tay ήταν μια πλήρης καταστροφή, αλλά δίδαξε επίσης στη Microsoft μερικά κρίσιμα μαθήματα όσον αφορά την ανάπτυξη εργαλείων AI. Και γι' αυτό που αξίζει, μάλλον είναι προς το καλύτερο που η Microsoft έμαθε τα μαθήματά της νωρίτερα παρά αργότερα, κάτι που της επέτρεψε να ξεπεράσει την Google και να αναπτύξει το νέο Πρόγραμμα περιήγησης Bing με τεχνητή νοημοσύνη.

Εδώ είναι μερικά από αυτά τα μαθήματα:

1. Το Διαδίκτυο είναι γεμάτο τρολ

Το διαδίκτυο είναι γεμάτο τρολ, και αυτό δεν είναι ακριβώς είδηση, σωστά; Προφανώς, ήταν έτσι στη Microsoft το 2016. Δεν λέμε ότι η κατασκευή ενός chatbot για «ψυχαγωγικούς σκοπούς» που στοχεύει ηλικίες 18 έως 24 ετών είχε κάποια σχέση με το ποσοστό κατάχρησης της υπηρεσίας. Ωστόσο, σίγουρα δεν ήταν και η πιο έξυπνη ιδέα.

Οι άνθρωποι φυσικά θέλουν να δοκιμάσουν τα όρια των νέων τεχνολογιών και τελικά είναι δουλειά του προγραμματιστή να λογοδοτήσει για αυτές τις κακόβουλες επιθέσεις. Κατά κάποιο τρόπο, τα εσωτερικά τρολ λειτουργούν ως μηχανισμός ανατροφοδότησης για τη διασφάλιση της ποιότητας, αλλά αυτό δεν σημαίνει ότι ένα chatbot πρέπει να αφήνεται ελεύθερο χωρίς να υπάρχουν κατάλληλες διασφαλίσεις πριν από την κυκλοφορία.

2. Το AI δεν μπορεί να διαφοροποιήσει διαισθητικά μεταξύ του καλού και του κακού

Η έννοια του καλού και του κακού είναι κάτι που η τεχνητή νοημοσύνη δεν κατανοεί διαισθητικά. Πρέπει να προγραμματιστεί για να προσομοιώνει τη γνώση του τι είναι σωστό και τι λάθος, τι είναι ηθικό και ανήθικο και τι είναι φυσιολογικό και περίεργο.

Αυτές οι ιδιότητες λίγο πολύ έρχονται φυσικά στους ανθρώπους ως κοινωνικά πλάσματα, αλλά η τεχνητή νοημοσύνη δεν μπορεί να σχηματίσει ανεξάρτητες κρίσεις, να αισθανθεί ενσυναίσθηση ή να βιώσει πόνο. Αυτός είναι ο λόγος για τον οποίο όταν οι χρήστες του Twitter τροφοδοτούσαν τον Tay κάθε είδους προπαγάνδα, το bot απλώς ακολούθησε - αγνοώντας την ηθική των πληροφοριών που συγκέντρωνε.

3. Μην εκπαιδεύετε μοντέλα AI χρησιμοποιώντας τις συνομιλίες των ανθρώπων

Το Tay δημιουργήθηκε με «εξόρυξη σχετικών δημόσιων δεδομένων και με χρήση τεχνητής νοημοσύνης και σύνταξης που αναπτύχθηκε από ένα προσωπικό που περιλαμβάνει αυτοσχεδιαστικοί κωμικοί." Η εκπαίδευση ενός μοντέλου AI χρησιμοποιώντας τις συνομιλίες των ανθρώπων στο Διαδίκτυο είναι φρικτή ιδέα.

Και προτού το κατηγορήσετε στο Twitter, να ξέρετε ότι το αποτέλεσμα θα ήταν πιθανότατα το ίδιο ανεξάρτητα από την πλατφόρμα. Γιατί; Γιατί οι άνθρωποι απλά δεν είναι ο καλύτερός τους εαυτός στο διαδίκτυο. Γίνονται συναισθηματικοί, χρησιμοποιούν λέξεις αργκό και χρησιμοποιούν την ανωνυμία τους για να είναι κακόβουλοι.

4. Το AI στερείται κοινής λογικής και δεν δέχεται σαρκασμό

Η τεχνητή νοημοσύνη σήμερα φαίνεται πιο διαισθητική (ή, για να το θέσω με μεγαλύτερη ακρίβεια, είναι καλύτερη στην προσομοίωση της διαίσθησης), αλλά εξακολουθεί μερικές φορές να δυσκολεύεται να αναγνωρίσει τον σαρκασμό και τα σχήματα λόγου. Αυτό ίσχυε ακόμη περισσότερο το 2016. Αυτό που είναι προφανές για τους ανθρώπους δεν είναι προφανές για την τεχνητή νοημοσύνη. με άλλα λόγια, στερείται κοινής λογικής.

Οι AI όπως ο Tay δεν καταλαβαίνουν γιατί οι άνθρωποι είναι όπως είμαστε, ενεργούν όπως κάνουμε και τις εκκεντρικότητες του κάθε ατόμου. Μπορεί να συμπεριφέρεται και να ακούγεται ανθρώπινο σε εκπληκτικό βαθμό, αλλά ο καλός προγραμματισμός μπορεί να φτάσει μόνο τόσο μακριά.

5. Το AI πρέπει να προγραμματιστεί για να απορρίπτει μη έγκυρα αιτήματα

Το AI είναι πολύ εντυπωσιακό και πρέπει να προγραμματιστεί ώστε να απορρίπτει αιτήματα που προωθούν τη βλάβη. Ακόμη και σήμερα, μετά από όλες τις προόδους μας στην επεξεργασία της φυσικής γλώσσας, οι άνθρωποι εξακολουθούν να βρίσκουν γλωσσικά κενά κάνουν τα chatbots AI όπως το ChatGPT να «παραισθάνονται» και να παρέχει αποτελέσματα που προοριζόταν να περιοριστούν.

Το θέμα εδώ είναι ότι η τεχνητή νοημοσύνη είναι απόλυτα υπάκουη, κάτι που είναι ίσως η μεγαλύτερη δύναμη και αδυναμία της. Όλα όσα δεν θέλετε να κάνει ένα chatbot πρέπει να προγραμματίζονται μη αυτόματα σε αυτό.

6. Τα AI Chatbots δεν πρέπει ποτέ να μένουν χωρίς επίβλεψη

Μέχρι να μπορέσει η τεχνητή νοημοσύνη να αυτορυθμιστεί, δεν μπορεί να μείνει χωρίς επίβλεψη. Μπορείτε να σκεφτείτε τη σημερινή τεχνητή νοημοσύνη σαν παιδί θαύμα. είναι υπέροχο κατά κάποιο τρόπο, αλλά παρ' όλα αυτά είναι παιδί. Αν αφεθούν χωρίς επίβλεψη, οι άνθρωποι θα εκμεταλλευτούν τις αδυναμίες του - και ο Tay ήταν ένα χαρακτηριστικό παράδειγμα αυτού.

Η τεχνητή νοημοσύνη είναι ένα εργαλείο, όπως και το Διαδίκτυο, αλλά ο ρυθμός και η κλίμακα με την οποία τα πράγματα μπορούν να αποτύχουν με την τεχνητή νοημοσύνη είναι πολύ μεγαλύτερη από ό, τι ζήσαμε στις πρώτες μέρες του Διαδικτύου.

Η τεχνητή νοημοσύνη χρειάζεται συνεχή επίβλεψη και ρύθμιση

Ο Tay δεν είναι το μόνο chatbot που έγινε αδίστακτο - υπήρξαν πολλές άλλες περιπτώσεις όπως ακριβώς. Αλλά αυτό που το έκανε να ξεχωρίζει είναι η απόλυτη ταχύτητα με την οποία το έκανε—και το γεγονός ότι κατασκευάστηκε από έναν τεχνολογικό γίγαντα όπως η Microsoft.

Παραδείγματα όπως αυτό δείχνουν πόσο προσεκτικοί πρέπει να είμαστε όταν αναπτύσσουμε εργαλεία τεχνητής νοημοσύνης, ειδικά όταν προορίζονται να χρησιμοποιηθούν από κανονικούς ανθρώπους.