Στην τεχνητή νοημοσύνη, σημειώνεται πρόοδος σε πρωτοφανή επίπεδα, με νέες εξελίξεις να γίνονται σχεδόν εβδομαδιαία. Τα εργαλεία δημιουργίας τεχνητής νοημοσύνης όπως το ChatGPT είναι πλέον τόσο δημοφιλή που ενσωματώνονται παντού.

Πρέπει όμως; Η χρήση της τεχνολογίας AI για παραγωγικότητα, εκπαίδευση και ψυχαγωγία έχει νόημα. Ωστόσο, οι εταιρείες σκέφτονται τώρα να το βάλουν απευθείας στις εφαρμογές ανταλλαγής μηνυμάτων μας και αυτό μπορεί να αποδειχθεί καταστροφικό. Ακολουθούν επτά λόγοι.

1. Τα AI Chatbots τείνουν να έχουν παραισθήσεις

Εάν έχετε χρησιμοποιήσει ChatGPT, Bing ή Bard, γνωρίζετε ότι τα chatbot με τεχνητή νοημοσύνη που δημιουργούνται τείνουν να "παραισθάνονται". Η ψευδαίσθηση του AI είναι όταν αυτά τα chatbot συνθέτουν πράγματα λόγω έλλειψης επαρκών δεδομένων εκπαίδευσης σχετικά με το ερώτημα που ζητά ο χρήστης.

Με άλλα λόγια, παραδίδουν παραπληροφόρηση, αλλά ακούγονται σίγουροι για αυτήν, σαν να είναι γεγονός. Αυτό είναι ένα μεγάλο πρόβλημα επειδή πολλοί άνθρωποι δεν ελέγχουν τα γεγονότα όταν χρησιμοποιούν ένα chatbot και πιστεύουν ότι είναι ακριβές από προεπιλογή. Είναι ένα από τα μεγαλύτερα

instagram viewer
λάθη που πρέπει να αποφεύγονται κατά τη χρήση εργαλείων AI.

Όταν τοποθετείται σε εφαρμογές ανταλλαγής μηνυμάτων, το μέγεθος της ζημιάς που μπορεί να προκαλέσει είναι ακόμη μεγαλύτερο, καθώς οι άνθρωποι μπορεί να το χρησιμοποιήσουν για (σκόπιμα ή ακούσια) διαδίδουν παραπληροφόρηση στις επαφές τους και στα μέσα κοινωνικής δικτύωσης, πολλαπλασιάζουν την προπαγάνδα και ενθαρρύνουν τον απόηχο θαλάμους.

2. Στους ανθρώπους δεν αρέσει να μιλάνε με ρομπότ

Πίστωση εικόνας: graphicsstudio/Vecteezy

Σκεφτείτε πόσο ενοχλητικό είναι όταν προσπαθείτε να επικοινωνήσετε με την υποστήριξη πελατών μιας εταιρείας και είστε αναγκασμένοι να μιλήσετε με έναν chatbot αντί για ένα πραγματικό ανθρώπινο στέλεχος που μπορεί πραγματικά να κατανοήσει τις αποχρώσεις του προβλήματός σας και να προσφέρει τα κατάλληλα οδηγία.

Το ίδιο ισχύει και για τις προσωπικές συζητήσεις. Φανταστείτε να μιλάτε με τον φίλο σας, και στα μισά του δρόμου, συνειδητοποιείτε ότι χρησιμοποιούν τεχνητή νοημοσύνη απαντούν στα μηνύματά σας όλο αυτό το διάστημα αντί να το κάνουν μόνοι τους με βάση τις σκέψεις τους και απόψεις.

Εάν είστε όπως οι περισσότεροι άνθρωποι, θα αισθάνεστε αμέσως προσβεβλημένοι και θα αντιλαμβάνεστε τη χρήση της τεχνητής νοημοσύνης σε μια ιδιωτική συνομιλία ως αναίσθητος, ανατριχιαστικός, ακόμη και παθητικό-επιθετικός, σαν το άλλο άτομο να μην σας θεωρεί ότι αξίζει τον χρόνο του, την προσοχή του και ενσυναίσθηση.

Η χρήση της τεχνητής νοημοσύνης για τη σύνταξη μηνυμάτων ηλεκτρονικού ταχυδρομείου, για παράδειγμα, είναι κατανοητή, καθώς πρόκειται για επαγγελματική αλληλεπίδραση, αλλά η χρήση της σε προσωπικές συνομιλίες δεν θα είναι κάτι που θα ήθελε κανείς να ενθαρρύνει. Μόλις η καινοτομία της τεχνολογίας εξασθενίσει, θα γίνει αγενές να τη χρησιμοποιήσετε σε αυτό το πλαίσιο.

3. Το AI δεν μπορεί να αντιγράψει τη μοναδική τονικότητα σας

Τα εργαλεία δημιουργίας τεχνητής νοημοσύνης σήμερα σας επιτρέπουν ήδη να αλλάξετε τον τόνο του μηνύματός σας, όπως επίσημο, χαρούμενο ή ουδέτερο, ανάλογα με το σε ποιον γράφετε και πώς θέλετε να συναντήσετε. Magic Compose στο Google Messages, για παράδειγμα, σας επιτρέπει να κάνετε το ίδιο.

Αν και αυτό είναι καλό, σημειώστε ότι αυτές οι τονικές εκπαιδεύσεις βασίζονται σε καθορισμένα δεδομένα εκπαίδευσης και όχι στο προσωπικό σας ιστορικό συνομιλιών, επομένως δεν μπορούν να αναπαράγουν τη μοναδική τονικότητα ή τα emoji που συνήθως χρησιμοποιείτε.

Ίσως να μην σας ενδιαφέρει πολύ αυτό, ειδικά αν χρησιμοποιείτε τεχνητή νοημοσύνη για να γράψετε απλά email εργασίας για τα οποία όλοι χρησιμοποιούν λίγο πολύ την ίδια επίσημη τονικότητα. Αλλά έχει πολύ μεγαλύτερη σημασία από ό, τι μπορεί να αντιληφθείτε όταν το χρησιμοποιείτε για να μιλήσετε με τους φίλους και την οικογένειά σας σε μια εφαρμογή ανταλλαγής μηνυμάτων.

Μέχρι τα εργαλεία τεχνητής νοημοσύνης να σας επιτρέψουν την επιλογή να εκπαιδεύσετε το μοντέλο γλώσσας τους με βάση το ιστορικό συνομιλιών σας, δεν θα μπορούν να αναπαράγουν τη μοναδική σας διάλεκτο και τις εκκεντρικότητες. Τούτου λεχθέντος, αυτή η πρόκληση δεν είναι τόσο δύσκολο να επιλυθεί, επομένως ενδέχεται να την δούμε να εφαρμόζεται σύντομα.

4. Η σύνταξη καλών προτροπών απαιτεί χρόνο

Η λήψη των επιθυμητών αποτελεσμάτων από ένα chatbot AI εξαρτάται σε μεγάλο βαθμό από την ποιότητα του μηνύματός σας. Εάν γράψετε μια κακή προτροπή, θα λάβετε μια κακή απάντηση και θα πρέπει να βελτιώσετε την προτροπή μέχρι να λάβετε ένα ικανοποιητικό αποτέλεσμα.

Αυτή η διαδικασία έχει νόημα όταν θέλετε να γράψετε περιεχόμενο μεγάλης μορφής, αλλά είναι εξαιρετικά αναποτελεσματική όταν γράφετε πολλαπλές, σύντομες απαντήσεις σε μια άτυπη συνομιλία.

Ο χρόνος που μπορεί να χρειαστεί για να βελτιώσετε τις προτροπές σας και να λάβετε χρήσιμες απαντήσεις θα είναι, στις περισσότερες περιπτώσεις, περισσότερος από τον χρόνο που θα σας έπαιρνε αν γράφατε μόνοι σας τα μηνύματα.

5. Το AI μπορεί να παράγει επιθετικά αποτελέσματα

Εκτός από την ακρίβεια, η μεροληψία είναι ένα από τα μεγαλύτερα προβλήματα με τη γενετική τεχνητή νοημοσύνη. Μερικοί άνθρωποι αντιλαμβάνονται την τεχνητή νοημοσύνη ως αμερόληπτη, καθώς δεν έχει τα δικά της κίνητρα. Ωστόσο, οι άνθρωποι πίσω από αυτά τα εργαλεία AI είναι τελικά άνθρωποι με τις δικές τους προκαταλήψεις.

Με άλλα λόγια, η μεροληψία ενσωματώνεται στο σύστημα. Η τεχνητή νοημοσύνη δεν κατανοεί εγγενώς τι θεωρείται προσβλητικό και τι όχι, επομένως μπορεί, για παράδειγμα, να είναι εκπαιδευμένο να είναι προκατειλημμένος εναντίον ορισμένων ομάδων ανθρώπων ή ορισμένων πολιτισμών—άρα παράγει προσβλητικά αποτελέσματα στη διαδικασία.

6. Το AI μπορεί να μην καταλαβαίνει τον σαρκασμό ή το χιούμορ

Η κατανόηση των μορφών λόγου από την τεχνητή νοημοσύνη, όπως η ειρωνεία και η μεταφορά, βελτιώνεται με την πάροδο του χρόνου, αλλά απέχει ακόμα πολύ από το να είναι σε σημείο όπου μπορεί να χρησιμοποιηθεί σε μια συνομιλία για να αναγνωρίσει το χιούμορ. Όταν ζητούσαμε από τον Bard της Google να είναι σαρκαστικός, για παράδειγμα, τα αποτελέσματα ήταν τυχαία.

Σε ορισμένες περιπτώσεις, ήταν πραγματικά αστείο και έπαιζε μαζί με τον σαρκασμό μου. Αλλά σε άλλες περιπτώσεις, είτε ανταποκρίθηκε προεπιλογή σε μια αστεία απόκριση κοπής cookie είτε απλώς αρνήθηκε συμμετάσχετε στη συζήτηση συνολικά, λέγοντας ότι καθώς είναι απλώς ένα LLM, δεν μπορεί να με βοηθήσει με το ερώτηση.

7. Η εξάρτηση από την τεχνητή νοημοσύνη μπορεί να οδηγήσει σε κακή επικοινωνία

Ένα άλλο λεπτό αλλά ουσιαστικό πρόβλημα με την ενσωμάτωση του γενετικού AI σε εφαρμογές ανταλλαγής μηνυμάτων είναι πώς μπορεί να επηρεάσει την ικανότητά μας να επικοινωνούμε. Εάν βασιζόμαστε όλο και περισσότερο στην τεχνητή νοημοσύνη για να συνομιλούμε μεταξύ μας, μπορεί να εμποδίσει την ικανότητά μας να το κάνουμε εκπαιδεύσουμε τη συναισθηματική μας νοημοσύνη και κοινωνικές δεξιότητες.

Το θέμα εδώ είναι ότι όσο περισσότερο αναθέτουμε τις κοινωνικές μας ανάγκες σε τεχνητή νοημοσύνη, τόσο χειρότερα θα χειροτερεύουμε την επικοινωνία ιδεών με οργανικά μέσα. Με άλλα λόγια, όσο περισσότερο χρησιμοποιείτε την τεχνητή νοημοσύνη για να μιλήσετε με τις επαφές σας, τόσο πιο πιθανό είναι να υποβαθμίσετε την ποιότητα των σχέσεών σας.

Δεν χρειάζεται όλα να έχουν AI

Συχνά, με την έλευση της νέας τεχνολογίας, είμαστε τόσο απασχολημένοι με το να βρούμε πώς να τη χρησιμοποιήσουμε που αποτυγχάνουμε να διαφωνήσουμε αν θα έπρεπε να τη χρησιμοποιούμε εξαρχής.

Αν και είναι απολύτως λογικό να χρησιμοποιείται η γενετική τεχνητή νοημοσύνη για τη σύνταξη email, την ανταλλαγή ιδεών ή τη δημιουργία εικόνων για παρουσιάσεις, η ενσωμάτωσή του σε εφαρμογές ανταλλαγής μηνυμάτων προκαλεί πολλή κριτική.