Οι συζητήσεις γύρω από την αίσθηση της τεχνητής νοημοσύνης δεν είναι κάτι καινούργιο, αλλά τα νέα σχετικά με το AI LaMDA της Google έχουν πυροδοτήσει τις φλόγες. Αφού ένας μηχανικός ισχυρίστηκε ότι το ρομπότ είχε τις αισθήσεις του, έστω και έχοντας ψυχή, δημιουργήθηκαν ξανά κάποιες γνωστές ερωτήσεις.
Μπορεί η τεχνητή νοημοσύνη όπως το LaMDA να είναι πραγματικά ευαίσθητη ή να έχει αυτογνωσία, και αν ναι, πώς μπορείτε να το καταλάβετε; Εχει σημασία?
Τι είναι το LaMDA;
Το LaMDA, συντομογραφία του Language Model for Dialogue Applications, εμφανίστηκε για πρώτη φορά το 2021 στο συνέδριο προγραμματιστών της Google. Το προηγμένο σύστημα AI υποτίθεται ότι βοηθά στη δημιουργία άλλων, μικρότερων chatbot. Όταν η Google το παρουσίασε για πρώτη φορά, ανακοίνωσε σχέδια να το ενσωματώσει σε όλα, βοηθώντας υπηρεσίες όπως το Google Assistant και η Αναζήτηση να αισθάνονται πιο ανθρώπινες ή τουλάχιστον φυσικές.
Όταν ο μηχανικός της Google, Blake Lemoine μίλησε με τη LaMDA για να δει αν χρησιμοποιούσε ρητορική μίσους, έφυγε με διαφορετική εντύπωση. Ο Lemoine ισχυρίστηκε ότι ο LaMDA ήταν ευαίσθητος και αν δεν ήξερε ότι ήταν bot, θα νόμιζε ότι ήταν ένα οκτάχρονο παιδί.
Μετά τις συνομιλίες του με τη LaMDA, ο Lemoine προσπάθησε να αποδείξει ότι ήταν συνειδητοποιημένος και να υπερασπιστεί αυτά που πίστευε ότι ήταν τα νόμιμα δικαιώματά του. Σε απάντηση, η Google έθεσε τη Lemoine σε διοικητική άδεια μετ' αποδοχών λόγω παραβίασης των συμφωνιών εμπιστευτικότητας.
Είναι το LaMDA πραγματικά ευαίσθητο;
Λοιπόν, είναι το LaMDA όντως αισθανόμενο; Οι περισσότεροι ειδικοί που έχουν σταθμίσει το θέμα είναι δύσπιστοι. Το LaMDA είναι μια εξαιρετικά προηγμένη πλατφόρμα συνομιλίας τεχνητής νοημοσύνης που αναλύει τρισεκατομμύρια λέξεις από το Διαδίκτυο, επομένως είναι ικανό να ακούγεται σαν πραγματικό άτομο.
Δεν είναι η πρώτη φορά που ένα από τα AI της Google ξεγελάει τους ανθρώπους να πιστεύουν ότι είναι ανθρώπινο. Το 2018, η Google έδειξε το Duplex AI της καλώντας ένα εστιατόριο για να κλείσει τραπέζι. Σε κανένα σημείο ο υπάλληλος στην άλλη άκρη δεν φάνηκε να αμφιβάλλει ότι μιλούσε με κάποιο άτομο.
Η αίσθηση είναι δύσκολο να οριστεί, αν και οι περισσότεροι άνθρωποι αμφιβάλλω ότι η AI έχει φτάσει σε αυτό το σημείο Ακόμη. Ωστόσο, το σημαντικό ερώτημα μπορεί να μην είναι αν το LaMDA είναι όντως ευαίσθητο, αλλά τι διαφορά έχει αν μπορεί να ξεγελάσει τους ανθρώπους να πιστεύουν ότι είναι.
Πιθανές νομικές επιπτώσεις του LaMDA
Η κατάσταση LaMDA εγείρει πολλά νομικά και ηθικά ερωτήματα. Πρώτον, μερικοί άνθρωποι μπορεί να αναρωτιούνται εάν η Google είχε δίκιο που έδωσε τη Lemoine σε άδεια επειδή μίλησε σχετικά.
Σύμφωνα με το Άρθρο 740 του Εργατικού Νόμου της Νέας Υόρκης, η προστασία των πληροφοριοδοτών υπερασπίζεται τους εργαζόμενους από τέτοια συνέπειες εάν πιστεύουν ότι οι πρακτικές του εργοδότη τους παραβιάζουν το νόμο ή αποτελούν σημαντικό κίνδυνο για το κοινό ασφάλεια. Η υποτιθέμενη αίσθηση του LaMDA δεν πληροί ακριβώς αυτή τη νομική απαίτηση, αλλά θα έπρεπε;
Η παροχή δικαιωμάτων AI είναι ένα δύσκολο θέμα. Ενώ το AI μπορεί δημιουργήστε πράγματα και φαίνονται ανθρώπινα, μπορεί να αντιμετωπίσετε μερικές περίπλοκες καταστάσεις εάν αυτά τα μηχανήματα διαθέτουν νομική προστασία. Τα νομικά δικαιώματα λειτουργούν γύρω από ανταμοιβές και τιμωρίες που δεν επηρεάζουν την τεχνητή νοημοσύνη, περιπλέκοντας τη δικαιοσύνη.
Εάν ένα αυτοοδηγούμενο αυτοκίνητο χτυπήσει έναν πεζό, είναι ένοχος η τεχνητή νοημοσύνη εάν ο νόμος τον αντιμετωπίζει ως άνθρωπο; Και αν ναι, δεν αποδίδει αυστηρά δικαιοσύνη στο θύμα, καθώς δεν μπορείτε να τιμωρήσετε τεχνικά την τεχνητή νοημοσύνη με τον ίδιο τρόπο που θα κάνατε έναν άνθρωπο.
Ένα άλλο ερώτημα που προκύπτει με το LaMDA και παρόμοια chatbots AI είναι η ασφάλειά τους. Εάν αυτά τα ρομπότ φαίνονται πειστικά αληθινά, οι άνθρωποι μπορεί να τα εμπιστεύονται περισσότερο και να είναι πρόθυμα να τα δώσουν πιο ευαίσθητες πληροφορίες. Αυτό ανοίγει την πόρτα σε ένα πλήθος ανησυχιών για το απόρρητο και την ασφάλεια, εάν αυτή η τεχνολογία πέσει σε λάθος χέρια.
Το AI εισάγει περίπλοκα ηθικά ερωτήματα
Τα AI όπως το LaMDA γίνονται όλο και πιο εξελιγμένα και ρεαλιστικά. Καθώς αυτή η τάση αυξάνεται, οι εταιρείες και οι νομοθέτες θα πρέπει να επανεξετάσουν τον τρόπο με τον οποίο αντιμετωπίζουν την τεχνητή νοημοσύνη και πώς αυτές οι αποφάσεις θα μπορούσαν να επηρεάσουν τη δικαιοσύνη και την ασφάλεια.
Ως έχει, το LaMDA AI της Google μπορεί να μην είναι ευαίσθητο, αλλά είναι αρκετά καλό για να ξεγελάσει τους ανθρώπους να πιστέψουν ότι είναι, κάτι που θα σημάνει κάποιους συναγερμούς.