Η ανάπτυξη της τεχνητής νοημοσύνης προχωρά γρήγορα, αλλά ποιος πρέπει να καθοδηγήσει την τεχνητή νοημοσύνη και τον αντίκτυπό της στον κόσμο;

Βασικά Takeaways

  • Η τεχνητή νοημοσύνη χρειάζεται αυστηρότερη παρακολούθηση, καθώς εξακολουθούν να εμφανίζονται ευπάθειες στον κυβερνοχώρο και ανησυχίες για το απόρρητο.
  • Η κυβέρνηση, οι εταιρείες τεχνολογίας και οι τελικοί χρήστες έχουν όλοι ρόλο να διαδραματίσουν στη ρύθμιση της τεχνητής νοημοσύνης, αλλά κάθε προσέγγιση έχει τους περιορισμούς της.
  • Τα μέσα ενημέρωσης, οι μη κερδοσκοπικοί οργανισμοί, οι ενώσεις του κλάδου της τεχνολογίας, τα ακαδημαϊκά ιδρύματα και οι υπηρεσίες επιβολής του νόμου συμβάλλουν επίσης στη ρύθμιση της τεχνητής νοημοσύνης.

Το ευρύ κοινό έχει διαφορετικές απόψεις για την τεχνητή νοημοσύνη - ορισμένοι πιστεύουν ότι οι μηχανές θα αντικαταστήσουν εντελώς τους ανθρώπινους εργάτες, ενώ άλλοι ισχυρίζονται ότι η τεχνητή νοημοσύνη είναι μόδα. Ένα πράγμα στο οποίο όλοι συμφωνούν, ωστόσο, είναι ότι η τεχνητή νοημοσύνη χρειάζεται αυστηρότερη παρακολούθηση.

Παρά τη σημασία της ρύθμισης της τεχνητής νοημοσύνης, έχει περάσει πίσω από την εκπαίδευση. Οι προγραμματιστές έχουν τόση εμμονή με την κατασκευή του επόμενου μεγαλύτερου μοντέλου AI που ανταλλάσσουν την ασφάλεια στον κυβερνοχώρο για γρήγορη πρόοδο. Το ερώτημα δεν είναι αν η τεχνητή νοημοσύνη χρειάζεται ρύθμιση. είναι ποιο κυβερνητικό όργανο με επαρκή χρηματοδότηση, ανθρώπινο δυναμικό και τεχνολογική ικανότητα θα αναλάβει την πρωτοβουλία.

Λοιπόν, ποιος πρέπει να ρυθμίζει την τεχνητή νοημοσύνη;

Κυβερνητικά όργανα

Διάφοροι άνθρωποι, από καταναλωτές έως ηγέτες τεχνολογίας, ελπίζουν ότι η κυβέρνηση θα ρυθμίσει την τεχνητή νοημοσύνη. Τα δημόσια χρηματοδοτούμενα ιδρύματα έχουν τους πόρους για να το κάνουν. Ακόμη και ο Έλον Μασκ και ο Σαμ Άλτμαν, δύο βασικοί οδηγοί του αγώνα AI, πιστεύουν ότι κάποιοι ανησυχίες για το απόρρητο γύρω από την τεχνητή νοημοσύνη είναι πολύ επικίνδυνα για να παραβλεφθούν τα κυβερνητικά όργανα.

Η κυβέρνηση θα πρέπει να επικεντρωθεί στην προστασία της ιδιωτικής ζωής και των πολιτικών ελευθεριών των ψηφοφόρων της, εάν αναλάβει τη ρύθμιση της τεχνητής νοημοσύνης. Οι κυβερνοεγκληματίες συνεχίζουν να βρίσκουν τρόπους εκμετάλλευσης συστημάτων τεχνητής νοημοσύνης στα σχέδιά τους. Άτομα που δεν γνωρίζουν καλά την τεχνητή νοημοσύνη μπορεί εύκολα να ξεγελαστούν από συνθετικές φωνές, deepfake βίντεο και διαδικτυακά προφίλ που λειτουργούν από bot.

Ωστόσο, ένα σημαντικό ζήτημα με την κυβέρνηση που ρυθμίζει την τεχνητή νοημοσύνη είναι ότι ενδέχεται να καταπνίξει ακούσια την καινοτομία. Το AI είναι μια σύνθετη, εξελισσόμενη τεχνολογία. Αν οι υπάλληλοι που επιβλέπουν τις οδηγίες ανάπτυξης, ανάπτυξης και εκπαίδευσης δεν κατανοήσουν πώς λειτουργεί η τεχνητή νοημοσύνη, μπορεί να κάνουν πρόωρες, αναποτελεσματικές κρίσεις.

Προγραμματιστές τεχνητής νοημοσύνης, εταιρείες τεχνολογίας και εργαστήρια

Λαμβάνοντας υπόψη τα πιθανά οδοφράγματα που μπορεί να προκύψουν από την παρακολούθηση της τεχνητής νοημοσύνης από την κυβέρνηση, πολλοί θα προτιμούσαν να έχουν την αιχμή του δόρατος στη ρύθμιση των εταιρειών τεχνολογίας. Πιστεύουν ότι οι προγραμματιστές πρέπει να είναι υπεύθυνοι για την τεχνολογία που κυκλοφορούν. Η αυτορρύθμιση τους δίνει τη δυνατότητα να οδηγήσουν την καινοτομία και να επικεντρωθούν στην αποτελεσματική προώθηση αυτών των συστημάτων.

Επιπλέον, η εις βάθος κατανόησή τους για την τεχνητή νοημοσύνη θα τους βοηθήσει να κάνουν δίκαιες, τεκμηριωμένες κατευθυντήριες γραμμές δίνοντας προτεραιότητα στην ασφάλεια των χρηστών χωρίς συμβιβασμούς στη λειτουργικότητα. Όπως με κάθε τεχνολογία, η τεχνογνωσία του κλάδου απλοποιεί την παρακολούθηση. Η ανάθεση σε μη εκπαιδευμένους υπαλλήλους να ρυθμίζουν τεχνολογίες που ελάχιστα κατανοούν μπορεί να δημιουργήσει περισσότερα προβλήματα παρά οφέλη.

Πάρτε ως παράδειγμα την ακρόαση της Γερουσίας των ΗΠΑ το 2018 σχετικά με τους νόμους περί απορρήτου δεδομένων του Facebook. Σε αυτή την έκθεση από Η Washington Post, θα δείτε ότι πολλοί νομοθέτες έχουν μπερδευτεί με τις βασικές λειτουργίες του Facebook. Έτσι, εκτός και αν η Γερουσία των ΗΠΑ δημιουργήσει ένα μοναδικό τμήμα ειδικών τεχνολογίας, πιθανότατα δεν έχουν τα προσόντα να ρυθμίσουν ένα τόσο προηγμένο, συνεχώς μεταβαλλόμενο σύστημα όπως η τεχνητή νοημοσύνη.

Ωστόσο, το κύριο ζήτημα με τις εταιρείες τεχνολογίας που ρυθμίζουν τον εαυτό τους είναι ότι οι σκοτεινές εταιρείες ενδέχεται να κάνουν κατάχρηση της εξουσίας τους. Χωρίς να παρεμβαίνει τρίτο μέρος, είναι βασικά ελεύθεροι να κάνουν ό, τι θέλουν.

Τελικούς χρήστες

Κάποιοι φοβούνται ότι κυβερνητικές και ιδιωτικές οντότητες θα κάνουν κατάχρηση συστημάτων AI. Δεν είναι σίγουροι για την παραχώρηση σε μια χούφτα κυβερνητικών οργάνων απόλυτο έλεγχο σε τέτοιες ισχυρές τεχνολογίες, ειδικά από τη στιγμή που η τεχνητή νοημοσύνη εξακολουθεί να εξελίσσεται. Μπορεί τελικά να παλέψουν για την εξουσία αντί να εργαστούν για αποτελεσματική ρύθμιση.

Για τον μετριασμό αυτών των κινδύνων, οι σκεπτικιστές πιστεύουν ότι οι τελικοί χρήστες αξίζουν ελεύθεροι να χρησιμοποιούν μοντέλα τεχνητής νοημοσύνης όπως θέλουν. Λένε ότι οι κυβερνητικοί φορείς πρέπει να παρεμβαίνουν μόνο όταν οι χρήστες τεχνητής νοημοσύνης παραβιάζουν το νόμο. Είναι ένας φιλόδοξος στόχος, αλλά θα μπορούσε τεχνικά να επιτευχθεί εάν οι προγραμματιστές τεχνητής νοημοσύνης ανοιχτού κώδικα κυριαρχούσαν στα μερίδια αγοράς.

Τούτου λεχθέντος, αυτή η ρύθμιση θέτει σε μειονεκτική θέση τα άτομα που δεν γνωρίζουν την τεχνολογία. Οι χρήστες είναι υπεύθυνοι για τον καθορισμό των περιορισμών στα συστήματά τους—δυστυχώς, δεν έχουν όλοι τους πόρους για να το κάνουν.

Είναι επίσης κοντόφθαλμο να αφαιρεθούν τα ιδιόκτητα μοντέλα από την αγορά. Ο πολλαπλασιασμός των Τα μοντέλα τεχνητής νοημοσύνης ανοιχτού κώδικα έχουν πολλές θετικές και αρνητικές επιπτώσεις; για κάποιους, τα μειονεκτήματα υπερτερούν των θετικών.

Άλλες οντότητες που παίζουν ρόλο στον κανονισμό της AI

Αν και μεγάλες οντότητες θα πρωτοστατήσουν στη ρύθμιση της τεχνητής νοημοσύνης, υπάρχουν φορείς που διαδραματίζουν σημαντικό ρόλο:

Τα μέσα ενημέρωσης διαδραματίζουν κρίσιμο ρόλο στη διαμόρφωση της αντίληψης του κοινού για την τεχνητή νοημοσύνη. Αναφέρουν τις εξελίξεις του κλάδου, μοιράζονται νέα εργαλεία, ευαισθητοποιούν τις επιβλαβείς χρήσεις της τεχνητής νοημοσύνης και συνεντεύξεις με ειδικούς σχετικά με σχετικές ανησυχίες.

Τα περισσότερα από τα στοιχεία που γνωρίζουν οι τελικοί χρήστες για την τεχνητή νοημοσύνη προέρχονται βασικά από μέσα ενημέρωσης. Η δημοσίευση ψευδών δεδομένων, σκόπιμα ή όχι, θα προκαλέσει μη αναστρέψιμη ζημιά - δεν μπορείτε να υποτιμήσετε πόσο γρήγορα διαδίδεται η παραπληροφόρηση.

2. Μη-κυβερνητικές οργανώσεις

Αρκετοί μη κερδοσκοπικοί οργανισμοί επικεντρώνονται στην προστασία του απορρήτου και των πολιτικών ελευθεριών των χρηστών τεχνητής νοημοσύνης. Εκπαιδεύουν το κοινό μέσω δωρεάν πόρων, υποστηρίζουν νέες πολιτικές, συνεργάζονται με κυβερνητικούς αξιωματούχους και εκφράζουν ανησυχίες που παραβλέπονται.

Το μόνο πρόβλημα με τους ΜΚΟ είναι ότι συνήθως έχουν έλλειψη πόρων. Δεδομένου ότι δεν συνδέονται με την κυβέρνηση, βασίζονται σε ιδιωτικές προσκλήσεις και δωρεές για καθημερινές λειτουργίες. Δυστυχώς, μόνο λίγοι οργανισμοί λαμβάνουν επαρκή χρηματοδότηση.

3. Ενώσεις Τεχνολογικών Βιομηχανιών

Οι ενώσεις του κλάδου τεχνολογίας που εστιάζουν στην τεχνητή νοημοσύνη μπορούν να εκπροσωπούν τα δικαιώματα και τα συμφέροντα του κοινού. Όπως οι ΜΚΟ, συνεργάζονται με νομοθέτες, εκπροσωπούν ενδιαφερόμενα άτομα, υποστηρίζουν δίκαιες πολιτικές και ευαισθητοποιούν σε συγκεκριμένα ζητήματα.

Η διαφορά, ωστόσο, είναι ότι συχνά έχουν δεσμούς με ιδιωτικές εταιρείες. Τα μέλη τους εξακολουθούν να κάνουν προσκλήσεις, αλλά συνήθως λαμβάνουν αρκετή χρηματοδότηση από τους μητρικούς οργανισμούς τους, εφόσον προσφέρουν αποτελέσματα.

4. Ακαδημαϊκά Ιδρύματα

Αν και η τεχνητή νοημοσύνη ενέχει αρκετούς κινδύνους, είναι εγγενώς ουδέτερη. Όλες οι προκαταλήψεις, τα ζητήματα απορρήτου, τα σφάλματα ασφαλείας και οι πιθανές δραστηριότητες εγκλήματος στον κυβερνοχώρο προέρχονται από ανθρώπους, επομένως η τεχνητή νοημοσύνη από μόνη της δεν είναι κάτι που πρέπει να φοβόμαστε.

Αλλά πολύ λίγοι καταλαβαίνουν ήδη πώς λειτουργούν τα σύγχρονα μοντέλα AI. Οι λανθασμένες αντιλήψεις παραμορφώνουν την αντίληψη των ανθρώπων για την τεχνητή νοημοσύνη, διαιωνίζοντας αβάσιμους φόβους όπως η τεχνητή νοημοσύνη να κατακτήσει την ανθρωπότητα ή να κλέψει θέσεις εργασίας.

Τα ακαδημαϊκά ιδρύματα θα μπορούσαν να καλύψουν αυτά τα εκπαιδευτικά κενά μέσω προσβάσιμων πόρων. Δεν υπάρχουν ακόμη πάρα πολλές επιστημονικές εργασίες για τα σύγχρονα συστήματα LLM και NLP. Το κοινό μπορεί να χρησιμοποιήσει την τεχνητή νοημοσύνη πιο υπεύθυνα και να καταπολεμήσει τα εγκλήματα στον κυβερνοχώρο, εάν κατανοεί πλήρως πώς λειτουργεί.

5. Υπηρεσίες επιβολής του νόμου

Οι υπηρεσίες επιβολής του νόμου θα πρέπει να περιμένουν να συναντήσουν περισσότερα Κυβερνοεπιθέσεις με δυνατότητα AI. Με τον πολλαπλασιασμό των παραγωγικών μοντέλων, οι απατεώνες μπορούν να συνθέσουν γρήγορα φωνές, να δημιουργήσουν βαθιά ψεύτικες εικόνες, να ξύσουν στοιχεία προσωπικής ταυτοποίησης (PII), και μάλιστα να δημιουργήσετε εντελώς νέες περσόνες.

Οι περισσότερες υπηρεσίες δεν είναι εξοπλισμένες για να χειριστούν αυτά τα εγκλήματα. Θα πρέπει να επενδύσουν σε νέα συστήματα και να εκπαιδεύσουν τους αξιωματικούς τους για τα σύγχρονα εγκλήματα στον κυβερνοχώρο. Διαφορετικά, θα έχουν πρόβλημα να πιάσουν αυτούς τους απατεώνες.

Κανονισμός για το μέλλον της τεχνητής νοημοσύνης

Λαμβάνοντας υπόψη τον γρήγορο χαρακτήρα της τεχνητής νοημοσύνης, είναι απίθανο ένα μόνο κυβερνητικό όργανο να το ελέγξει. Ναι, οι ηγέτες της τεχνολογίας θα έχουν περισσότερη δύναμη από τους καταναλωτές, αλλά διάφορες οντότητες πρέπει να συνεργαστούν για να διαχειριστούν τους κινδύνους της τεχνητής νοημοσύνης χωρίς να εμποδίζουν τις εξελίξεις. Είναι καλύτερο να ορίσετε μέτρα ελέγχου τώρα, ενώ η τεχνητή γενική νοημοσύνη (AGI) εξακολουθεί να είναι ένας μακρινός στόχος.

Τούτου λεχθέντος, η ρύθμιση της τεχνητής νοημοσύνης είναι εξίσου μακρινή με το AGI. Εν τω μεταξύ, οι χρήστες πρέπει να τηρούν πρακτικές ασφαλείας για την καταπολέμηση των απειλών που προκαλούνται από την τεχνητή νοημοσύνη. Καλές συνήθειες, όπως ο περιορισμός των ατόμων με τα οποία συνδέεστε στο διαδίκτυο και η διασφάλιση των ψηφιακών σας PII, έχουν ήδη προχωρήσει πολύ.