Οι δυνατότητες τεχνητής νοημοσύνης επεκτείνονται ραγδαία, με την τεχνητή νοημοσύνη να χρησιμοποιείται τώρα σε βιομηχανίες από τη διαφήμιση έως την ιατρική έρευνα. Η χρήση της τεχνητής νοημοσύνης σε πιο ευαίσθητους τομείς όπως το λογισμικό αναγνώρισης προσώπου, οι αλγόριθμοι πρόσληψης και η παροχή υγειονομικής περίθαλψης, έχουν προκαλέσει συζήτηση για προκατάληψη και δικαιοσύνη.

Η προκατάληψη είναι μια καλά ερευνημένη πλευρά της ανθρώπινης ψυχολογίας. Η έρευνα αποκαλύπτει τακτικά τις ασυνείδητες προτιμήσεις και προκαταλήψεις μας, και τώρα βλέπουμε ότι η AI αντικατοπτρίζει μερικές από αυτές τις προκαταλήψεις στους αλγόριθμούς τους.

Λοιπόν, πώς η τεχνητή νοημοσύνη γίνεται προκατειλημμένη; Και γιατί αυτό έχει σημασία;

Πώς γίνεται η προκατάληψη της τεχνητής νοημοσύνης;

Για λόγους απλότητας, σε αυτό το άρθρο, θα αναφερθούμε μηχανική μάθηση και βαθιά μάθηση αλγόριθμοι ως αλγόριθμοι ή συστήματα AI.

Οι ερευνητές και οι προγραμματιστές μπορούν να εισαγάγουν προκατάληψη στα συστήματα AI με δύο τρόπους.

instagram viewer

Πρώτον, οι γνωστικές προκαταλήψεις των ερευνητών μπορούν να ενσωματωθούν κατά λάθος σε αλγόριθμους μηχανικής μάθησης. Οι γνωστικές προκαταλήψεις είναι ασυνείδητες ανθρώπινες αντιλήψεις που μπορούν να επηρεάσουν τον τρόπο λήψης αποφάσεων από τους ανθρώπους. Αυτό γίνεται ένα σημαντικό ζήτημα όταν οι προκαταλήψεις αφορούν άτομα ή ομάδες ανθρώπων και μπορούν να βλάψουν αυτούς τους ανθρώπους.

Αυτές οι προκαταλήψεις μπορούν να εισαχθούν άμεσα αλλά κατά λάθος, ή οι ερευνητές μπορεί να εκπαιδεύσουν το AI σε σύνολα δεδομένων που επηρεάστηκαν από την προκατάληψη. Για παράδειγμα, μια AI αναγνώρισης προσώπου θα μπορούσε να εκπαιδευτεί χρησιμοποιώντας ένα σύνολο δεδομένων που περιλαμβάνει μόνο ανοιχτόχρωμο πρόσωπο. Σε αυτήν την περίπτωση, η τεχνητή νοημοσύνη θα έχει καλύτερη απόδοση όταν αντιμετωπίζει ανοιχτόχρωμο πρόσωπο παρά σκοτεινό. Αυτή η μορφή προκατάληψης AI είναι γνωστή ως αρνητική κληρονομιά.

Δεύτερον, μπορεί να προκύψουν προκαταλήψεις όταν το AI καταρτίζεται σε ελλιπή σύνολα δεδομένων. Για παράδειγμα, εάν ένα AI έχει εκπαιδευτεί σε ένα σύνολο δεδομένων που περιλαμβάνει μόνο επιστήμονες υπολογιστών, δεν θα αντιπροσωπεύει ολόκληρο τον πληθυσμό. Αυτό οδηγεί σε αλγόριθμους που δεν παρέχουν ακριβείς προβλέψεις.

Παραδείγματα πραγματικής προκατάληψης τεχνητής νοημοσύνης

Υπήρξαν πολλά πρόσφατα, καλά αναφερόμενα παραδείγματα προκατάληψης AI που απεικονίστε τον κίνδυνο αφήνοντας αυτές τις προκαταλήψεις να εισχωρήσουν.

Προτεραιότητα στην υγειονομική περίθαλψη με έδρα τις ΗΠΑ

Το 2019, ένας αλγόριθμος μηχανικής μάθησης σχεδιάστηκε για να βοηθήσει τα νοσοκομεία και τις ασφαλιστικές εταιρείες να καθορίσουν ποιοι ασθενείς θα ωφεληθούν περισσότερο από ορισμένα προγράμματα υγειονομικής περίθαλψης. Με βάση μια βάση δεδομένων περίπου 200 εκατομμυρίων ατόμων, ο αλγόριθμος ευνόησε τους λευκούς ασθενείς έναντι των μαύρων ασθενών.

Προσδιορίστηκε ότι αυτό οφείλεται σε λανθασμένη υπόθεση στον αλγόριθμο σχετικά με το διαφορετικό κόστος της υγειονομικής περίθαλψης μεταξύ των ασπρόμαυρων ατόμων και η προκατάληψη μειώθηκε τελικά κατά 80%.

COMPAS

Το Προφίλ Διορθωτικής Διαχείρισης Παραβατών για Εναλλακτικές Κυρώσεις, ή το COMPAS, ήταν ένας αλγόριθμος AI που σχεδιάστηκε για να προβλέψει εάν συγκεκριμένοι άνθρωποι θα προσβληθούν εκ νέου. Ο αλγόριθμος παρήγαγε διπλά τα ψευδώς θετικά για τους μαύρους παραβάτες σε σύγκριση με τους λευκούς παραβάτες. Σε αυτήν την περίπτωση, τόσο το σύνολο δεδομένων όσο και το μοντέλο ήταν ελαττωματικά, εισάγοντας βαριά προκατάληψη.

Αμαζόνα

Ο αλγόριθμος πρόσληψης που χρησιμοποιεί η Amazon για να προσδιορίσει την καταλληλότητα των υποψηφίων βρέθηκε το 2015 να ευνοεί τους άνδρες έναντι των γυναικών. Αυτό οφείλεται στο γεγονός ότι το σύνολο δεδομένων περιείχε αποκλειστικά άντρες και τα βιογραφικά τους, καθώς οι περισσότεροι υπάλληλοι της Amazon είναι άνδρες.

Πώς να σταματήσετε την προκατάληψη AI

Η τεχνητή νοημοσύνη φέρνει ήδη επανάσταση στον τρόπο που δουλεύουμε κάθε βιομηχανία. Η ύπαρξη προκατειλημμένων συστημάτων που ελέγχουν ευαίσθητες διαδικασίες λήψης αποφάσεων είναι λιγότερο από επιθυμητή. Στην καλύτερη περίπτωση, μειώνει την ποιότητα της έρευνας που βασίζεται σε AI. Στη χειρότερη περίπτωση, βλάπτει ενεργά τις μειονοτικές ομάδες.

Υπάρχουν ήδη παραδείγματα αλγορίθμων AI που χρησιμοποιούνται ήδη βοηθήστε τη λήψη αποφάσεων για τον άνθρωπο μειώνοντας τον αντίκτυπο των ανθρώπινων γνωστικών προκαταλήψεων. Λόγω του τρόπου με τον οποίο εκπαιδεύονται οι αλγόριθμοι μηχανικής μάθησης, μπορούν να είναι πιο ακριβείς και λιγότερο προκατειλημμένοι από τους ανθρώπους στην ίδια θέση, με αποτέλεσμα πιο δίκαιη λήψη αποφάσεων.

Όμως, όπως έχουμε δείξει, το αντίθετο ισχύει επίσης. Οι κίνδυνοι να επιτρέψουμε στις ανθρώπινες προκαταλήψεις να μαγειρευτούν και να ενισχυθούν από την τεχνητή νοημοσύνη μπορεί να υπερτερούν ορισμένων από τα πιθανά οφέλη.

Στο τέλος της μέρας, Η τεχνητή νοημοσύνη είναι τόσο καλή όσο τα δεδομένα με τα οποία έχει εκπαιδευτεί. Η ανάπτυξη αμερόληπτων αλγορίθμων απαιτεί εκτενή και διεξοδική προκαταρκτική ανάλυση συνόλων δεδομένων, διασφαλίζοντας ότι τα δεδομένα είναι απαλλαγμένα από έμμεσες προκαταλήψεις. Αυτό είναι πιο δύσκολο από ό, τι ακούγεται, διότι πολλές από τις προκαταλήψεις μας είναι ασυνείδητες και συχνά δύσκολο να εντοπιστούν.

Προκλήσεις στην πρόληψη της προκατάληψης AI

Κατά την ανάπτυξη συστημάτων τεχνητής νοημοσύνης, κάθε βήμα πρέπει να αξιολογείται για τη δυνατότητά του να ενσωματώσει προκατάληψη στον αλγόριθμο. Ένας από τους σημαντικότερους παράγοντες για την πρόληψη της προκατάληψης είναι η διασφάλιση ότι η δικαιοσύνη, παρά η προκατάληψη, «μαγειρεύεται» στον αλγόριθμο.

Ορισμός της δικαιοσύνης

Η δικαιοσύνη είναι μια έννοια που είναι σχετικά δύσκολο να οριστεί. Στην πραγματικότητα, είναι μια συζήτηση που δεν κατέληξε ποτέ σε συναίνεση. Για να κάνουμε τα πράγματα ακόμη πιο δύσκολα, κατά την ανάπτυξη συστημάτων AI, η έννοια της δικαιοσύνης πρέπει να οριστεί μαθηματικά.

Για παράδειγμα, όσον αφορά τον αλγόριθμο πρόσληψης του Αμαζονίου, η δικαιοσύνη θα μοιάζει με ένα τέλειο διαχωρισμό 50/50 μεταξύ ανδρών και γυναικών εργαζομένων; Ή διαφορετική αναλογία;

Προσδιορισμός της λειτουργίας

Το πρώτο βήμα στην ανάπτυξη της τεχνητής νοημοσύνης είναι να προσδιορίσετε ακριβώς τι πρόκειται να επιτύχει. Εάν χρησιμοποιείτε το παράδειγμα COMPAS, ο αλγόριθμος θα προβλέψει την πιθανότητα επανεμφάνισης εγκληματιών. Στη συνέχεια, πρέπει να καθοριστούν σαφείς είσοδοι δεδομένων για να μπορέσει ο αλγόριθμος να λειτουργήσει. Αυτό μπορεί να απαιτεί τον καθορισμό σημαντικών μεταβλητών, όπως ο αριθμός των προηγούμενων αδικημάτων ή ο τύπος των αδικημάτων που διαπράχθηκαν.

Ο σωστός ορισμός αυτών των μεταβλητών είναι ένα δύσκολο αλλά σημαντικό βήμα για τη διασφάλιση της ορθότητας του αλγορίθμου.

Δημιουργία του συνόλου δεδομένων

Όπως έχουμε καλύψει, μια σημαντική αιτία της προκατάληψης AI είναι τα ελλιπή, μη αντιπροσωπευτικά ή μεροληπτικά δεδομένα. Όπως στην περίπτωση της αναγνώρισης προσώπου AI, τα δεδομένα εισαγωγής πρέπει να ελέγχονται διεξοδικά για μεροληψίες, καταλληλότητα και πληρότητα πριν από τη διαδικασία μηχανικής εκμάθησης.

Επιλέγοντας χαρακτηριστικά

Στους αλγόριθμους, ορισμένα χαρακτηριστικά μπορούν να εξεταστούν ή όχι. Τα χαρακτηριστικά μπορούν να περιλαμβάνουν το φύλο, τη φυλή ή την εκπαίδευση - βασικά οτιδήποτε μπορεί να είναι σημαντικό για την εργασία του αλγορίθμου. Ανάλογα με το ποια χαρακτηριστικά επιλέγονται, η προγνωστική ακρίβεια και η μεροληψία του αλγορίθμου μπορούν να επηρεαστούν σοβαρά. Το πρόβλημα είναι ότι είναι πολύ δύσκολο να μετρηθεί πόσο μεροληπτικός είναι ένας αλγόριθμος.

Το AI Bias δεν είναι εδώ για να μείνει

Η προκατάληψη AI συμβαίνει όταν οι αλγόριθμοι κάνουν προκατειλημμένες ή ανακριβείς προβλέψεις λόγω προκατειλημμένων εισόδων. Εμφανίζεται όταν μεροληπτικά ή ελλιπή δεδομένα αντανακλώνται ή ενισχύονται κατά την ανάπτυξη και την κατάρτιση του αλγορίθμου.

Τα καλά νέα είναι ότι με τη χρηματοδότηση της έρευνας για την τεχνητή νοημοσύνη πολλαπλασιάζεται, είναι πιθανό να δούμε νέες μεθόδους για τη μείωση και ακόμη και την εξάλειψη της προκατάληψης της AI.

ΗΛΕΚΤΡΟΝΙΚΗ ΔΙΕΥΘΥΝΣΗ
5 συνήθεις μύθοι για την τεχνητή νοημοσύνη που δεν είναι αληθινοί

Ας βάλουμε το ρεκόρ σε ορισμένα κοινά ψέματα γύρω από το AI.

Διαβάστε Επόμενο

Σχετικά θέματα
  • Η τεχνολογία εξηγείται
  • Τεχνητή νοημοσύνη
  • Μηχανική εκμάθηση
Σχετικά με τον Συγγραφέα
Τζέικ Χάρφιλντ (Δημοσιεύθηκαν 6 άρθρα)

Ο Τζέικ Χάρφιλντ είναι ανεξάρτητος συγγραφέας με έδρα το Περθ της Αυστραλίας. Όταν δεν γράφει, συνήθως βγαίνει στο θάμνο φωτογραφίζοντας τοπική άγρια ​​φύση. Μπορείτε να τον επισκεφτείτε στο www.jakeharfield.com

Περισσότερα από τον Jake Harfield

Εγγραφείτε στο Newsletter μας

Εγγραφείτε στο ενημερωτικό δελτίο μας για τεχνικές συμβουλές, κριτικές, δωρεάν ebook και αποκλειστικές προσφορές!

Ένα ακόμη βήμα…!

Επιβεβαιώστε τη διεύθυνση email σας στο email που μόλις σας στείλαμε.

.