Η Τεχνητή Νοημοσύνη (AI) είναι τόσο αμφιλεγόμενη όσο και εντυπωσιακή. Μπορεί να κάνει πολλά κομμάτια της δουλειάς και της καθημερινότητας ευκολότερα, αλλά εγείρει και κάποια ηθικά ερωτήματα. Η χρήση της τεχνητής νοημοσύνης από την κυβέρνηση των ΗΠΑ, ειδικότερα, αφήνει μερικούς ανθρώπους να αισθάνονται άβολα.

Υπάρχουν πολλά κυβερνητικά έργα τεχνητής νοημοσύνης που χρησιμοποιούνται ή αναπτύσσονται σήμερα, και ορισμένα έχουν κάνει πολύ καλό. Ταυτόχρονα, εγείρουν πολλές ανησυχίες σχετικά με το απόρρητο της τεχνητής νοημοσύνης. Ακολουθεί μια πιο προσεκτική ματιά σε αυτά τα έργα και τι σημαίνουν για το δημόσιο απόρρητο.

Παραδείγματα κυβερνητικών έργων τεχνητής νοημοσύνης και αυτοματισμού

Τα πιο βασικά παραδείγματα τεχνητής νοημοσύνης που χρησιμοποιούνται από την κυβέρνηση των ΗΠΑ περιλαμβάνουν την αυτοματοποίηση της καθημερινής εργασίας γραφείου. Το 2019, το Σιάτλ χρησιμοποίησε Ρομποτική Αυτοματοποίηση Διαδικασιών (RPA) να φροντίζει για τις εφαρμογές εισαγωγής και επεξεργασίας δεδομένων. Από τότε, η πόλη πέρασε από περισσότερες από 6.000 καθυστερημένες αιτήσεις και εξοικονόμησε εκατοντάδες ώρες εργασίας.

instagram viewer

Άλλα κυβερνητικά έργα τεχνητής νοημοσύνης είναι πιο εντυπωσιακά. Η Πυροσβεστική Υπηρεσία της Νέας Υόρκης δοκιμάζει σκύλους ρομπότ από Boston Dynamics για τη μέτρηση δομικών ζημιών και τοξικών αναθυμιάσεων πριν εισέλθουν οι πυροσβέστες. Πριν από το έργο ρομπότ πυρόσβεσης, το αστυνομικό τμήμα της Νέας Υόρκης είχε σχεδιάσει να εφαρμόσει τα ίδια ρομπότ.

Τα αστυνομικά τμήματα και άλλες κυβερνητικές υπηρεσίες σε όλη τη χώρα εξετάζουν το ενδεχόμενο χρήσης παρόμοιων τεχνολογιών. Ωστόσο, καθώς αυτά τα κυβερνητικά έργα τεχνητής νοημοσύνης απογειώνονται, οι πιθανές αδυναμίες τους όσον αφορά το απόρρητο έχουν γίνει πιο ξεκάθαρες.

Είναι η τεχνητή νοημοσύνη απειλή για το απόρρητο και την ασφάλεια;

Το αν θα δείτε αστυνομικά ρομπότ στο μέλλον είναι ακόμα αβέβαιο, αλλά τα πράγματα φαίνεται να πηγαίνουν προς αυτή την κατεύθυνση. Αυτά τα έργα έχουν πολλά οφέλη, αλλά οι ανησυχίες για το απόρρητο της τεχνητής νοημοσύνης γίνονται πιο σοβαρές όταν αντιμετωπίζουμε την κυβέρνηση. Εδώ είναι μερικά από τα μεγαλύτερα προβλήματα με αυτές τις τεχνολογίες.

Η τεχνητή νοημοσύνη βασίζεται στη συλλογή και ανάλυση δεδομένων. Ως αποτέλεσμα, περισσότερα κυβερνητικά έργα τεχνητής νοημοσύνης σημαίνουν ότι αυτές οι υπηρεσίες θα συλλέγουν και θα αποθηκεύουν πρόσθετες πληροφορίες για τους πολίτες τους. Μερικοί άνθρωποι αισθάνονται ότι όλες αυτές οι πληροφορίες συλλέγουν παραβιάζει την ιδιωτικότητά τους και παραβιάζει τα δικαιώματά τους.

Τεχνολογίες όπως το έργο του πυροσβεστικού σκύλου είναι ιδιαίτερα ανησυχητικές επειδή μπορούν να κάνουν την κυβερνητική επιτήρηση παραπλανητική. Οι υπηρεσίες λένε ότι το ρομπότ είναι εκεί για να ελέγξει τις ανησυχίες για την ασφάλεια, αλλά δεν υπάρχει τρόπος για τους ανθρώπους να πουν ποια δεδομένα συλλέγει. Θα μπορούσε να έχει κάμερες και αισθητήρες που σαρώνουν τα πρόσωπά τους ή παρακολουθούν τα κινητά τους τηλέφωνα χωρίς να το γνωρίζουν.

Μερικοί άνθρωποι ανησυχούν ότι ο «ψυχρός παράγοντας» των ρομπότ θα κρύψει τις δυνατότητες επιτήρησής τους. Τα ρομπότ της αστυνομίας στο μέλλον θα μπορούσαν να κατασκοπεύουν τους πολίτες χωρίς να δημιουργούν πολλές υποψίες, καθώς οι άνθρωποι βλέπουν απλώς νέες τεχνολογίες αντί για παραβίαση του απορρήτου τους.

Αδιευκρίνιστες ευθύνες

Αυτά τα έργα τεχνητής νοημοσύνης και αυτοματισμού εγείρουν επίσης το ζήτημα της λογοδοσίας. Εάν ένα ρομπότ κάνει ένα λάθος που οδηγεί σε βλάβη, ποιος είναι υπεύθυνος για αυτό; Όταν ένας δημόσιος υπάλληλος υπερβαίνει τα όριά του και παραβιάζει τα δικαιώματα κάποιου, τα δικαστήρια μπορούν να τον θέσουν υπόλογο, αλλά τι γίνεται με ένα ρομπότ;

Μπορείτε να δείτε αυτό το ζήτημα σε αυτοκίνητα αυτόνομης οδήγησης. Οι άνθρωποι έχουν χρεώσει τον κατασκευαστή με αξίωση ευθύνης προϊόντος σε ορισμένες περιπτώσεις ατυχήματος αυτόματου πιλότου, ενώ άλλοι κατηγορούν τον οδηγό. Σε μια περίπτωση, το Εθνικό Συμβούλιο Ασφάλειας Μεταφορών έφερε την ευθύνη τόσο στον κατασκευαστή όσο και στον οδηγό, αλλά τελικά πρέπει να αποφασιστεί κατά περίπτωση. Τα ρομπότ της αστυνομίας λασπώνουν τα νερά με τον ίδιο τρόπο. Εάν παραβιάζουν το απόρρητό σας, δεν είναι σαφές εάν πρέπει να κατηγορήσετε τον κατασκευαστή, το αστυνομικό τμήμα ή τους ανθρώπινους επόπτες.

Αυτή η σύγχυση θα μπορούσε να επιβραδύνει και να περιπλέξει τις νομικές διαδικασίες. Θα μπορούσε να χρειαστεί λίγος χρόνος για τα θύματα παραβιάσεων της ιδιωτικής ζωής ή παραβιάσεων των δικαιωμάτων τους για να λάβουν τη δικαιοσύνη που τους αξίζει. Νέοι νόμοι και νομικό προηγούμενο θα μπορούσαν να ξεκαθαρίσουν τα πράγματα και να λύσουν αυτό το ζήτημα, αλλά αυτή τη στιγμή, είναι αβέβαιο.

Κίνδυνοι παραβίασης δεδομένων

Η τεχνητή νοημοσύνη που χρησιμοποιείται από την κυβέρνηση των ΗΠΑ θα μπορούσε επίσης να διευρύνει τις ανησυχίες περί απορρήτου της τεχνητής νοημοσύνης που βλέπετε στον ιδιωτικό τομέα. Η συλλογή ορισμένων δεδομένων μπορεί να είναι απολύτως νόμιμη, αλλά όσο περισσότεροι οργανισμοί συγκεντρώνουν, τόσο περισσότερο κινδυνεύουν. Η εταιρεία ή η κυβέρνηση μπορεί να μην χρησιμοποιήσει τις πληροφορίες για οτιδήποτε παράνομο, αλλά μπορεί να κάνει τους ανθρώπους ευάλωτους στο έγκλημα στον κυβερνοχώρο.

Υπήρχαν περισσότερες από 28.000 κυβερνοεπιθέσεις εναντίον της κυβέρνησης των ΗΠΑ μόνο το 2019. Εάν οι υπηρεσίες διατηρούν περισσότερες προσωπικές πληροφορίες των πολιτών, αυτές οι επιθέσεις θα μπορούσαν να επηρεάσουν περισσότερα από την κυβέρνηση. Μια επιτυχημένη παραβίαση δεδομένων θα μπορούσε να θέσει σε κίνδυνο πολλούς ανθρώπους χωρίς να το γνωρίζουν. Οι παραβιάσεις συχνά περνούν απαρατήρητες, οπότε πρέπει να το κάνετε ελέγξτε ότι τα δεδομένα σας δεν είναι ήδη προς πώληση.

Για παράδειγμα, εάν ένα ρομπότ της αστυνομίας στο μέλλον χρησιμοποιήσει την αναγνώριση προσώπου για να αναζητήσει καταζητούμενους εγκληματίες, μπορεί να αποθηκεύσει βιομετρικά δεδομένα πολλών πολιτών. Οι χάκερ που μπαίνουν στο σύστημα θα μπορούσαν να κλέψουν αυτές τις πληροφορίες και να τις χρησιμοποιήσουν για να εισβάλουν σε τραπεζικούς λογαριασμούς ανθρώπων. Τα κυβερνητικά έργα τεχνητής νοημοσύνης πρέπει να έχουν ισχυρά μέτρα κυβερνοασφάλειας, εάν δεν θέλουν να θέσουν σε κίνδυνο τα δεδομένα των ανθρώπων.

Η κυβερνητική τεχνητή νοημοσύνη έχει οφέλη αλλά εγείρει ανησυχίες

Δεν είναι ακόμη σαφές πώς η αμερικανική κυβέρνηση θα χρησιμοποιήσει την τεχνητή νοημοσύνη στο μέλλον. Νέες προστασίες και νόμοι θα μπορούσαν να επιλύσουν αυτά τα ζητήματα και να αποφέρουν όλα τα οφέλη της τεχνητής νοημοσύνης χωρίς τους κινδύνους της. Προς το παρόν, ωστόσο, αυτές οι ανησυχίες εγείρουν ορισμένους συναγερμούς.

Οι ανησυχίες για το απόρρητο αφθονούν οπουδήποτε λειτουργεί το AI. Αυτά τα ερωτήματα γίνονται πιο σοβαρά καθώς παίζει μεγαλύτερο ρόλο στην κυβέρνηση. Τα κρατικά έργα τεχνητής νοημοσύνης θα μπορούσαν να κάνουν πολύ καλό, αλλά έχουν επίσης σημαντικές πιθανότητες να βλάψουν.

Η Microsoft προειδοποιεί ότι το "1984" μπορεί να γίνει πραγματικότητα σε τρία χρόνια

Διαβάστε Επόμενο

ΜερίδιοΤιτίβισμαΜερίδιοΗΛΕΚΤΡΟΝΙΚΗ ΔΙΕΥΘΥΝΣΗ

Σχετικά θέματα

  • Ασφάλεια
  • Τεχνητή νοημοσύνη
  • Διαδικτυακό απόρρητο

Σχετικά με τον Συγγραφέα

Σάνον Φλιν (Δημοσιεύτηκαν 79 άρθρα)

Η Shannon είναι ένας δημιουργός περιεχομένου που βρίσκεται στο Philly, PA. Γράφει στον τομέα της τεχνολογίας για περίπου 5 χρόνια μετά την αποφοίτησή της με πτυχίο πληροφορικής. Η Shannon είναι ο Managing Editor του ReHack Magazine και καλύπτει θέματα όπως η κυβερνοασφάλεια, τα παιχνίδια και η επιχειρηματική τεχνολογία.

Περισσότερα από τη Shannon Flynn

Εγγραφείτε στο ενημερωτικό μας δελτίο

Εγγραφείτε στο ενημερωτικό μας δελτίο για συμβουλές τεχνολογίας, κριτικές, δωρεάν ebook και αποκλειστικές προσφορές!

Κάντε κλικ εδώ για να εγγραφείτε