Με τα σύγχρονα μοντέλα γλώσσας τεχνητής νοημοσύνης όπως το ChatGPT και το Bing Chat της Microsoft να κάνουν πάταγο σε όλο τον κόσμο, αρκετοί άνθρωποι ανησυχούν μήπως η τεχνητή νοημοσύνη κατακτήσει τον κόσμο.

Αν και δεν θα τρέχουμε στο SkyNet στο άμεσο μέλλον, η τεχνητή νοημοσύνη γίνεται καλύτερη από τους ανθρώπους σε πολλά πράγματα. Εκεί είναι που εμφανίζεται το πρόβλημα ελέγχου AI.

Εξηγείται το πρόβλημα ελέγχου AI

Το πρόβλημα ελέγχου της τεχνητής νοημοσύνης είναι η ιδέα ότι η τεχνητή νοημοσύνη θα γίνει τελικά καλύτερη στη λήψη αποφάσεων από τους ανθρώπους. Σύμφωνα με αυτή τη θεωρία, εάν οι άνθρωποι δεν ρυθμίσουν τα πράγματα σωστά εκ των προτέρων, δεν θα έχουμε την ευκαιρία να διορθώσουμε τα πράγματα αργότερα, πράγμα που σημαίνει ότι η τεχνητή νοημοσύνη θα έχει αποτελεσματικό έλεγχο.

Η τρέχουσα έρευνα για μοντέλα τεχνητής νοημοσύνης και μηχανικής μάθησης (ML) απέχει, τουλάχιστον, χρόνια από την υπέρβαση των ανθρώπινων δυνατοτήτων. Ωστόσο, είναι λογικό να πιστεύουμε ότι, λαμβάνοντας υπόψη την τρέχουσα πρόοδο, η τεχνητή νοημοσύνη θα ξεπεράσει τους ανθρώπους τόσο σε επίπεδο νοημοσύνης όσο και σε επίπεδο αποτελεσματικότητας.

instagram viewer

Αυτό δεν σημαίνει ότι τα μοντέλα AI και ML δεν έχουν τα όριά τους. Εξάλλου, δεσμεύονται από τους νόμους της φυσικής και την υπολογιστική πολυπλοκότητα, καθώς και από την επεξεργαστική ισχύ των συσκευών που υποστηρίζουν αυτά τα συστήματα. Ωστόσο, είναι ασφαλές να υποθέσουμε ότι αυτά τα όρια είναι πολύ πέρα ​​από τις ανθρώπινες δυνατότητες.

Αυτό σημαίνει ότι ο υπερέξυπνος Τα συστήματα AI μπορεί να αποτελέσουν μεγάλη απειλή εάν δεν έχει σχεδιαστεί σωστά με δικλείδες ασφαλείας για τον έλεγχο τυχόν απατεώνων συμπεριφοράς. Τέτοια συστήματα πρέπει να κατασκευαστούν από την αρχή για να σέβονται τις ανθρώπινες αξίες και να διατηρούν υπό έλεγχο τη δύναμή τους. Αυτό σημαίνει το πρόβλημα ελέγχου όταν λέει ότι τα πράγματα πρέπει να ρυθμιστούν σωστά.

Εάν ένα σύστημα AI ξεπερνούσε την ανθρώπινη νοημοσύνη χωρίς τις κατάλληλες διασφαλίσεις, το αποτέλεσμα θα μπορούσε να είναι καταστροφικό. Τέτοια συστήματα θα μπορούσαν να αναλάβουν τον έλεγχο των φυσικών πόρων καθώς πολλές εργασίες επιτυγχάνονται καλύτερα ή πιο αποτελεσματικά. Δεδομένου ότι τα συστήματα τεχνητής νοημοσύνης έχουν σχεδιαστεί για να επιτυγχάνουν τη μέγιστη απόδοση, η απώλεια ελέγχου θα μπορούσε να οδηγήσει σε σοβαρές συνέπειες.

Πότε ισχύει το πρόβλημα ελέγχου AI;

Το κύριο πρόβλημα είναι ότι όσο καλύτερο γίνεται ένα σύστημα τεχνητής νοημοσύνης, τόσο πιο δύσκολο είναι για έναν ανθρώπινο επόπτη να παρακολουθεί την τεχνολογία για να διασφαλίσει ότι ο χειροκίνητος έλεγχος μπορεί να αναληφθεί εύκολα σε περίπτωση που το σύστημα αποτύχει. Επιπλέον, η τάση του ανθρώπου να βασίζεται σε ένα αυτοματοποιημένο σύστημα είναι μεγαλύτερη όταν το σύστημα λειτουργεί αξιόπιστα τις περισσότερες φορές.

Ένα εξαιρετικό παράδειγμα αυτού είναι το Σουίτα Tesla Full-Self-Driving (FSD).. Ενώ το αυτοκίνητο μπορεί να οδηγεί μόνο του, χρειάζεται ένας άνθρωπος να έχει τα χέρια του στο τιμόνι, έτοιμος να αναλάβει τον έλεγχο του αυτοκινήτου σε περίπτωση δυσλειτουργίας του συστήματος. Ωστόσο, καθώς αυτά τα συστήματα τεχνητής νοημοσύνης γίνονται πιο αξιόπιστα, η προσοχή ακόμη και του πιο προσεκτικού ανθρώπου θα αρχίσει να ποικίλλει και η εξάρτηση από το αυτόνομο σύστημα θα αυξηθεί.

Τι συμβαίνει λοιπόν όταν τα αυτοκίνητα αρχίζουν να οδηγούν με ταχύτητες που οι άνθρωποι δεν μπορούν να συμβαδίσουν; Θα καταλήξουμε να παραδώσουμε τον έλεγχο στα αυτόνομα συστήματα του αυτοκινήτου, που σημαίνει ότι ένα σύστημα AI θα έχει τον έλεγχο της ζωής σας, τουλάχιστον μέχρι να φτάσετε στον προορισμό σας.

Μπορεί να λυθεί το πρόβλημα ελέγχου AI;

Υπάρχουν δύο απαντήσεις για το αν μπορεί να λυθεί ή όχι το πρόβλημα ελέγχου τεχνητής νοημοσύνης. Πρώτον, αν ερμηνεύσουμε την ερώτηση κυριολεκτικά, το πρόβλημα ελέγχου δεν μπορεί να λυθεί. Δεν μπορούμε να κάνουμε τίποτα που να στοχεύει άμεσα την ανθρώπινη τάση να βασίζεται σε ένα αυτοματοποιημένο σύστημα όταν λειτουργεί αξιόπιστα και πιο αποτελεσματικά τις περισσότερες φορές.

Ωστόσο, εάν αυτή η τάση ληφθεί υπόψη ως χαρακτηριστικό τέτοιων συστημάτων, μπορούμε να επινοήσουμε τρόπους αντιμετώπισης του προβλήματος ελέγχου. Για παράδειγμα, το Αλγοριθμική Λήψη Αποφάσεων και Πρόβλημα Ελέγχου Η ερευνητική εργασία προτείνει τρεις διαφορετικές μεθόδους για την αντιμετώπιση της δύσκολης κατάστασης:

  • Η χρήση λιγότερο αξιόπιστων συστημάτων απαιτεί από έναν άνθρωπο να ασχολείται ενεργά με το σύστημα, καθώς τα λιγότερο αξιόπιστα συστήματα δεν δημιουργούν πρόβλημα ελέγχου.
  • Να περιμένουμε ένα σύστημα να ξεπεράσει την ανθρώπινη αποτελεσματικότητα και αξιοπιστία πριν από την ανάπτυξη σε πραγματικό κόσμο.
  • Για την εφαρμογή μόνο μερικού αυτοματισμού χρησιμοποιώντας την αποσύνθεση εργασιών. Αυτό σημαίνει ότι μόνο εκείνα τα μέρη ενός συστήματος που δεν απαιτούν από έναν ανθρώπινο χειριστή να εκτελέσει μια σημαντική εργασία είναι αυτοματοποιημένα. Ονομάζεται προσέγγιση δυναμικής/συμπληρωματικής κατανομής συναρτήσεων (DCAF).

Η προσέγγιση DCAF βάζει πάντα έναν άνθρωπο χειριστή στο τιμόνι ενός αυτοματοποιημένου συστήματος, διασφαλίζοντας ότι η εισαγωγή του ελέγχει τα πιο σημαντικά μέρη της διαδικασίας λήψης αποφάσεων του συστήματος. Εάν ένα σύστημα εμπλέκεται αρκετά ώστε ένας ανθρώπινος χειριστής να δίνει συνεχώς προσοχή, το πρόβλημα ελέγχου μπορεί να λυθεί.

Μπορούμε ποτέ να ελέγξουμε πραγματικά την τεχνητή νοημοσύνη;

Καθώς τα συστήματα AI γίνονται πιο προηγμένα, ικανά και αξιόπιστα, θα συνεχίσουμε να εκφορτώνουμε περισσότερες εργασίες σε αυτά. Ωστόσο, το πρόβλημα ελέγχου AI μπορεί να λυθεί με τις σωστές προφυλάξεις και διασφαλίσεις.

Η τεχνητή νοημοσύνη αλλάζει ήδη τον κόσμο για εμάς, κυρίως προς το καλύτερο. Εφόσον η τεχνολογία παραμένει υπό ανθρώπινη επίβλεψη, δεν θα πρέπει να υπάρχει τίποτα για το οποίο να ανησυχούμε.