Η ιδέα ότι οι τεχνολογίες τεχνητής νοημοσύνης πρέπει να ρυθμίζονται είναι ένα κοινό αίσθημα. Οι περισσότερες κυβερνήσεις, οι προγραμματιστές προϊόντων τεχνητής νοημοσύνης και ακόμη και οι απλοί χρήστες προϊόντων τεχνητής νοημοσύνης συμφωνούν σε αυτό. Δυστυχώς, ο καλύτερος τρόπος για να ρυθμίσετε αυτό το ταχέως αναπτυσσόμενο πεδίο είναι ένας άλυτος γρίφος.

Εάν αφεθούν ανεξέλεγκτες, οι τεχνολογίες AI μπορεί να διαταράξουν αρνητικά τον τρόπο ζωής μας και να απειλήσουν την ύπαρξή μας. Αλλά πώς μπορούν οι κυβερνήσεις να πλοηγηθούν στον λαβύρινθο των προκλήσεων που έρχεται με αυτό το ταχέως εξελισσόμενο πεδίο;

1. Κανονισμοί Απορρήτου και Προστασίας Δεδομένων

Ένα από τα κύρια προβλήματα με τις τεχνολογίες AI είναι το απόρρητο και η ασφάλεια των δεδομένων. Τα συστήματα τεχνητής νοημοσύνης είναι μηχανές που απαιτούν δεδομένα. Χρειάζονται δεδομένα για να λειτουργήσουν, περισσότερα δεδομένα για να είναι αποτελεσματικά και ακόμη περισσότερα δεδομένα για βελτίωση. Αν και αυτό δεν αποτελεί πρόβλημα, ο τρόπος με τον οποίο προέρχονται αυτά τα δεδομένα, η φύση τους και ο τρόπος επεξεργασίας και αποθήκευσης τους είναι ένα από τα μεγαλύτερα σημεία συζήτησης σχετικά με τους κανονισμούς τεχνητής νοημοσύνης.

instagram viewer

Λαμβάνοντας υπόψη αυτό, ο λογικός δρόμος που πρέπει να ακολουθήσετε είναι να τεθούν σε ισχύ αυστηροί κανονισμοί περί απορρήτου δεδομένων που διέπουν τα δεδομένα συλλογή, αποθήκευση και επεξεργασία, καθώς και τα δικαιώματα των ατόμων —των οποίων τα δεδομένα χρησιμοποιούνται— για πρόσβαση και έλεγχο τα στοιχεία τους. Τα ερωτήματα που θα μπορούσαν να αντιμετωπίσουν αυτοί οι κανονισμοί είναι:

  • Τι είδους δεδομένα μπορούν να συλλεχθούν;
  • Θα πρέπει ορισμένα προσωπικά δεδομένα να θεωρούνται ταμπού στην τεχνητή νοημοσύνη;
  • Πώς πρέπει να χειρίζονται οι εταιρείες τεχνητής νοημοσύνης ευαίσθητα προσωπικά δεδομένα, όπως αρχεία υγείας ή βιομετρικές πληροφορίες;
  • Πρέπει να ζητηθεί από τις εταιρείες τεχνητής νοημοσύνης να εφαρμόσουν μηχανισμούς ώστε τα άτομα να ζητούν εύκολα τη διαγραφή ή τη διόρθωση των προσωπικών τους δεδομένων;
  • Ποιες είναι οι συνέπειες για τις εταιρείες τεχνητής νοημοσύνης που δεν συμμορφώνονται με τους κανονισμούς περί απορρήτου δεδομένων; Πώς πρέπει να παρακολουθείται η συμμόρφωση και πώς πρέπει να διασφαλίζεται η επιβολή;
  • Ίσως το πιο σημαντικό, ποιο πρότυπο πρέπει να εφαρμόσουν οι εταιρείες τεχνητής νοημοσύνης για να διασφαλίσουν την ασφάλεια της ευαίσθητης φύσης των πληροφοριών που διαθέτουν;

Αυτές οι ερωτήσεις και μερικές άλλες αποτέλεσαν την ουσία του γιατί το ChatGPT απαγορεύτηκε προσωρινά στην Ιταλία. Αν δεν αντιμετωπιστούν αυτές οι ανησυχίες, ο χώρος τεχνητής νοημοσύνης μπορεί να είναι μια άγρια ​​δύση για το απόρρητο των δεδομένων και η απαγόρευση της Ιταλίας μπορεί να αποδειχθεί πρότυπο για απαγορεύσεις από άλλες χώρες παγκοσμίως.

2. Ανάπτυξη ενός πλαισίου ηθικής τεχνητής νοημοσύνης

Οι εταιρείες τεχνητής νοημοσύνης συχνά καυχώνται για τη δέσμευσή τους στις ηθικές κατευθυντήριες γραμμές για την ανάπτυξη συστημάτων τεχνητής νοημοσύνης. Τουλάχιστον στα χαρτιά, είναι όλοι υποστηρικτές της υπεύθυνης ανάπτυξης AI. Στα μέσα ενημέρωσης, τα στελέχη της Google έχουν δώσει έμφαση στο πώς η εταιρεία παίρνει στα σοβαρά την ασφάλεια και την ηθική της τεχνητής νοημοσύνης. Ομοίως, το "Safe and ethical AI" είναι ένα μάντρα για τον CEO του OpenAI, Sam Altman. Αυτά είναι αρκετά επικροτήματα.

Ποιος όμως φτιάχνει τους κανόνες; Ποιος αποφασίζει ποιες ηθικές οδηγίες για την τεχνητή νοημοσύνη είναι αρκετά καλές; Ποιος αποφασίζει πώς είναι η ασφαλής ανάπτυξη AI; Αυτήν τη στιγμή, κάθε εταιρεία τεχνητής νοημοσύνης φαίνεται να έχει τη δική της ενασχόληση με την υπεύθυνη και ηθική ανάπτυξη τεχνητής νοημοσύνης. OpenAI, Anthropic, Google, Meta, Microsoft, όλοι. Το να βασίζεσαι απλώς σε εταιρείες τεχνητής νοημοσύνης για να κάνεις το σωστό είναι επικίνδυνο.

ο Οι συνέπειες ενός μη ελεγμένου χώρου AI μπορεί να είναι καταστροφικές. Το να αφήνουμε μεμονωμένες εταιρείες να αποφασίσουν ποιες ηθικές οδηγίες θα υιοθετήσουν και ποιες να απορρίψουν είναι παρόμοιο με την υπνοβασία μας σε μια αποκάλυψη της τεχνητής νοημοσύνης. Η λύση? Ένα σαφές πλαίσιο ηθικής τεχνητής νοημοσύνης που διασφαλίζει:

  • Τα συστήματα τεχνητής νοημοσύνης δεν θέτουν σε μειονεκτική θέση ούτε κάνουν διακρίσεις σε βάρος ατόμων ή ορισμένων ομάδων με βάση τη φυλή, το φύλο ή την κοινωνικοοικονομική κατάσταση.
  • Τα συστήματα AI είναι ασφαλή, ασφαλή και αξιόπιστα και ελαχιστοποιούν τον κίνδυνο ακούσιων συνεπειών ή επιβλαβών συμπεριφορών.
  • Τα συστήματα τεχνητής νοημοσύνης κατασκευάζονται με γνώμονα τον ευρύτερο κοινωνικό αντίκτυπο των τεχνολογιών τεχνητής νοημοσύνης.
  • Ότι οι άνθρωποι διατηρούν τον απόλυτο έλεγχο των συστημάτων AI και τη λήψη των αποφάσεών τους με διαφάνεια.
  • Τα συστήματα AI περιορίζονται σκόπιμα με τρόπους που είναι επωφελείς για τον άνθρωπο.

3. Ειδικός Ρυθμιστικός Οργανισμός

Λόγω της πιθανής επίδρασής της στον ανθρώπινο πολιτισμό, η συζήτηση γύρω από την ασφάλεια της τεχνητής νοημοσύνης είναι συνήθως παράλληλα με τον κίνδυνο μιας κρίσης υγείας ή μιας πυρηνικής καταστροφής. Η αποφυγή πιθανών πυρηνικών συμβάντων απαιτεί μια ειδική υπηρεσία όπως η NRC των ΗΠΑ (Ruclear Regulatory Commission). Η αποφυγή του κινδύνου επικίνδυνων κρίσεων για την υγεία απαιτεί την ίδρυση του FDA (Food and Drug Administration)

Ομοίως, για να διασφαλιστεί ότι τα πράγματα δεν πάνε στραβά στον χώρο της τεχνητής νοημοσύνης, είναι απαραίτητη μια ειδική υπηρεσία παρόμοια με το FDA και το NRC, καθώς η τεχνητή νοημοσύνη συνεχίζει να κάνει επιθετικές εισβολές σε όλους τους τομείς της ζωής μας. Δυστυχώς, το θέμα της ρύθμισης της τεχνητής νοημοσύνης στη χώρα είναι δύσκολο. Το έργο οποιουδήποτε ειδικού ρυθμιστικού οργανισμού είναι πιθανό να είναι πολύ σκληρό χωρίς διασυνοριακή συνεργασία. Ακριβώς όπως η NRC (Πυρηνική Ρυθμιστική Επιτροπή) των ΗΠΑ χρειάζεται να συνεργαστεί χέρι-χέρι με τη Διεθνή Ατομική Ενέργεια Ο Οργανισμός (ΔΟΑΕ) για να είναι στα καλύτερά του, οποιοσδήποτε ειδικός ρυθμιστικός οργανισμός τεχνητής νοημοσύνης στη χώρα θα χρειαζόταν επίσης ένα διεθνές ανάλογο.

Μια τέτοια υπηρεσία θα είναι υπεύθυνη για τα ακόλουθα:

  • Ανάπτυξη κανονισμών τεχνητής νοημοσύνης
  • Διασφάλιση συμμόρφωσης και επιβολής
  • Επίβλεψη της διαδικασίας ηθικής επανεξέτασης των έργων τεχνητής νοημοσύνης
  • Συνεργασία και συνεργασία μεταξύ των χωρών για την ασφάλεια και την ηθική της τεχνητής νοημοσύνης

4. Αντιμετώπιση προβλημάτων πνευματικής ιδιοκτησίας και πνευματικής ιδιοκτησίας

Οι υφιστάμενοι νόμοι για τα πνευματικά δικαιώματα και τα νομικά πλαίσια καταρρέουν μπροστά στην Τεχνητή Νοημοσύνη. Ο τρόπος με τον οποίο σχεδιάζονται τα εργαλεία τεχνητής νοημοσύνης, ειδικά τα εργαλεία παραγωγής τεχνητής νοημοσύνης, τα κάνει να φαίνονται σαν ένα μηχάνημα παραβίασης πνευματικών δικαιωμάτων με δημόσια έγκριση για το οποίο δεν μπορείτε να κάνετε τίποτα.

Πως? Λοιπόν, πολλά από τα σημερινά συστήματα AI εκπαιδεύονται χρησιμοποιώντας υλικό που προστατεύεται από πνευματικά δικαιώματα. Ξέρετε, άρθρα που προστατεύονται από πνευματικά δικαιώματα, τραγούδια με πνευματικά δικαιώματα, εικόνες που προστατεύονται από πνευματικά δικαιώματα κ.λπ. Έτσι αρέσουν τα εργαλεία ChatGPT, Bing AI και Google Bard μπορούν να κάνουν τα απίθανα πράγματα που κάνουν.

Ενώ αυτά τα συστήματα εκμεταλλεύονται σαφώς την πνευματική ιδιοκτησία των ανθρώπων, με τον τρόπο που το κάνουν αυτά τα συστήματα τεχνητής νοημοσύνης δεν διαφέρει από τον άνθρωπο να διαβάζει ένα βιβλίο που προστατεύεται από πνευματικά δικαιώματα, να ακούει τραγούδια που προστατεύονται από πνευματικά δικαιώματα ή να κοιτάζει τα πνευματικά δικαιώματα εικόνες.

Μπορείτε να διαβάσετε ένα βιβλίο που προστατεύεται από πνευματικά δικαιώματα, να μάθετε νέα στοιχεία από αυτό και να χρησιμοποιήσετε αυτά τα γεγονότα ως βάση για το δικό σας βιβλίο. Μπορείτε επίσης να ακούσετε ένα τραγούδι που προστατεύεται από πνευματικά δικαιώματα για έμπνευση για να δημιουργήσετε τη δική σας μουσική. Και στις δύο περιπτώσεις, χρησιμοποιήσατε υλικό που προστατεύεται από πνευματικά δικαιώματα, αλλά αυτό δεν σημαίνει απαραίτητα ότι το παράγωγο προϊόν παραβιάζει τα πνευματικά δικαιώματα του πρωτοτύπου.

Αν και αυτή είναι μια λογική εξήγηση για να εξηγήσει το χάος που δημιουργεί η τεχνητή νοημοσύνη με τους νόμους περί πνευματικών δικαιωμάτων, εξακολουθεί να βλάπτει τους κατόχους των πνευματικών δικαιωμάτων και της πνευματικής ιδιοκτησίας. Λαμβάνοντας υπόψη αυτό, απαιτούνται κανονισμοί για:

  • Καθορίστε με σαφήνεια την ευθύνη και τις ευθύνες όλων των μερών που εμπλέκονται στον κύκλο ζωής ενός συστήματος AI. Αυτό περιλαμβάνει την αποσαφήνιση των ρόλων κάθε μέρους, από προγραμματιστές τεχνητής νοημοσύνης έως τελικούς χρήστες, για να διασφαλιστεί ότι είναι υπεύθυνος Τα μέρη θεωρούνται υπεύθυνα για τυχόν παραβίαση πνευματικών δικαιωμάτων ή παραβιάσεις πνευματικής ιδιοκτησίας που διαπράττονται από AI συστήματα.
  • Ενισχύστε τα υπάρχοντα πλαίσια πνευματικών δικαιωμάτων και ίσως εισαγάγετε νόμους περί πνευματικών δικαιωμάτων ειδικά για την τεχνητή νοημοσύνη.
  • Για τη διασφάλιση της καινοτομίας στον χώρο της τεχνητής νοημοσύνης με παράλληλη προστασία των δικαιωμάτων των αρχικών δημιουργών, η τεχνητή νοημοσύνη οι κανονισμοί θα πρέπει να επαναπροσδιορίσουν τις έννοιες της ορθής χρήσης και της μετασχηματιστικής εργασίας στο πλαίσιο της Περιεχόμενο που δημιουργείται από AI. Απαιτούνται σαφέστεροι ορισμοί και οδηγίες για να διασφαλιστεί ότι ο χώρος τεχνητής νοημοσύνης μπορεί να συνεχίσει να βελτιώνεται με σεβασμό των ορίων πνευματικών δικαιωμάτων. Είναι σημαντικό να επιτευχθεί μια ισορροπία μεταξύ της καινοτομίας και της διατήρησης των δικαιωμάτων των δημιουργών περιεχομένου.
  • Ξεκάθαροι δρόμοι για συνεργασία με τους κατόχους δικαιωμάτων. Εάν τα συστήματα τεχνητής νοημοσύνης πρόκειται να χρησιμοποιήσουν ούτως ή άλλως την πνευματική ιδιοκτησία των ανθρώπων, θα πρέπει να υπάρχουν ξεκάθαρα μονοπάτια ή πλαίσια για τους προγραμματιστές τεχνητής νοημοσύνης και ιδιοκτήτες δικαιωμάτων να συνεργάζονται, ιδίως όσον αφορά τις οικονομικές αποζημιώσεις, εάν το παράγωγο έργο τέτοιων πνευματικών ιδιοκτησιών είναι εμπορευματοποιούνται.

Ο κανονισμός της τεχνητής νοημοσύνης είναι μια απεγνωσμένα αναγκαία διόρθωση

Ενώ η τεχνητή νοημοσύνη έχει αναδειχθεί ως μια πολλά υποσχόμενη λύση σε πολλά από τα κοινωνικά μας προβλήματα, η ίδια η τεχνητή νοημοσύνη γίνεται γρήγορα ένα πρόβλημα που χρειάζεται επείγουσα επίλυση. Είναι καιρός να κάνουμε ένα βήμα πίσω, να σκεφτούμε και να κάνουμε τις απαραίτητες διορθώσεις για να διασφαλίσουμε τον θετικό αντίκτυπο της τεχνητής νοημοσύνης στην κοινωνία. Χρειαζόμαστε απεγνωσμένα μια επείγουσα επαναβαθμονόμηση της προσέγγισής μας για την κατασκευή και χρήση συστημάτων AI.