Διαφήμιση
Τους τελευταίους μήνες, μπορεί να έχετε διαβάσει την κάλυψη που περιβάλλει ένα άρθρο, συν-συγγραφέας του Stephen Hawking, συζητώντας τους κινδύνους που συνδέονται με την τεχνητή νοημοσύνη. Το άρθρο πρότεινε ότι η AI μπορεί να αποτελέσει σοβαρό κίνδυνο για την ανθρώπινη φυλή. Ο Hawking δεν είναι μόνος εκεί - Έλον Μόσκ και Πίτερ Τάιελ είναι και οι δύο πνευματικές δημόσιες προσωπικότητες που έχουν εκφράσει παρόμοιες ανησυχίες (η Thiel έχει επενδύσει περισσότερα από 1,3 εκατομμύρια δολάρια για την έρευνα του ζητήματος και πιθανές λύσεις).
Η κάλυψη του άρθρου του Hawking και των σχολίων του Musk ήταν, για να μην θέσουμε πολύ καλά ένα σημείο σε αυτό, λίγο χαρούμενη. Ο τόνος ήταν πάρα πολύ «Κοίτα αυτό το παράξενο πράγμα που ανησυχούν όλοι αυτοί οι geeks». Λίγη προσοχή δίνεται στην ιδέα ότι αν κάποιοι από τους πιο έξυπνους ανθρώπους στη Γη σας προειδοποιούν ότι κάτι θα μπορούσε να είναι πολύ επικίνδυνο, ίσως αξίζει να το ακούσετε.
Αυτό είναι κατανοητό - η τεχνητή νοημοσύνη που αναλαμβάνει τον κόσμο σίγουρα ακούγεται πολύ παράξενο και απίθανο, ίσως λόγω της τεράστιας προσοχής που έχει ήδη δοθεί σε αυτήν την ιδέα από την επιστημονική φαντασία συγγραφείς. Λοιπόν, τι τρομάστηκαν όλοι αυτοί οι ονομαστικά λογικοί, λογικοί άνθρωποι;
Τι είναι η νοημοσύνη;
Για να μιλήσουμε για τον κίνδυνο της Τεχνητής Νοημοσύνης, θα ήταν χρήσιμο να κατανοήσουμε τι είναι η νοημοσύνη. Για να κατανοήσουμε καλύτερα το ζήτημα, ας ρίξουμε μια ματιά σε μια αρχιτεκτονική παιχνιδιών AI που χρησιμοποιείται από ερευνητές που μελετούν τη θεωρία της συλλογιστικής. Αυτό το παιχνίδι AI ονομάζεται AIXI και έχει πολλές χρήσιμες ιδιότητες. Οι στόχοι του μπορεί να είναι αυθαίρετοι, κλιμακώνονται καλά με υπολογιστική ισχύ και ο εσωτερικός σχεδιασμός του είναι πολύ καθαρός και απλός.
Επιπλέον, μπορείτε να εφαρμόσετε απλές, πρακτικές εκδόσεις της αρχιτεκτονικής που μπορούν να κάνουν πράγματα όπως Παίξτε Pacman, αν θέλεις. Το AIXI είναι το προϊόν ενός ερευνητή AI που ονομάζεται Marcus Hutter, αναμφισβήτητα ο πρώτος ειδικός στην αλγοριθμική νοημοσύνη. Αυτός μιλάει στο παραπάνω βίντεο.
Το AIXI είναι εκπληκτικά απλό: έχει τρία βασικά συστατικά: μαθητής, σχεδιαστής, και λειτουργία χρησιμότητας.
- ο μαθητής παίρνει συμβολοσειρές bits που αντιστοιχούν σε πληροφορίες για τον έξω κόσμο, και αναζητά μέσω προγραμμάτων υπολογιστών μέχρι να βρει αυτά που παράγουν τις παρατηρήσεις του ως έξοδο. Αυτά τα προγράμματα, μαζί, του επιτρέπουν να μαντέψει πώς θα μοιάζει το μέλλον, απλά εκτελώντας το καθένα προώθηση προγράμματος και στάθμιση της πιθανότητας του αποτελέσματος κατά τη διάρκεια του προγράμματος (εφαρμογή του Occam's Ξυράφι).
- ο σχεδιαστής αναζητά πιθανές ενέργειες που μπορεί να κάνει ο πράκτορας και χρησιμοποιεί τη λειτουργική μονάδα για να προβλέψει τι θα συνέβαινε εάν πήρε καθένα από αυτά. Στη συνέχεια τα αξιολογεί ανάλογα με το πόσο καλά ή κακά είναι τα προβλεπόμενα αποτελέσματα και επιλέγει την πορεία του δράση που μεγιστοποιεί την καλοσύνη του αναμενόμενου αποτελέσματος πολλαπλασιαζόμενη με την αναμενόμενη πιθανότητα την επίτευξη.
- Η τελευταία ενότητα, η λειτουργία χρησιμότητας, είναι ένα απλό πρόγραμμα που περιλαμβάνει μια περιγραφή μιας μελλοντικής κατάστασης του κόσμου και υπολογίζει μια βαθμολογία χρησιμότητας για αυτό. Αυτό το σκορ χρησιμότητας είναι πόσο καλό ή κακό είναι αυτό το αποτέλεσμα και χρησιμοποιείται από τον αρμόδιο για το σχεδιασμό για να αξιολογήσει τη μελλοντική παγκόσμια κατάσταση. Η συνάρτηση χρησιμότητας μπορεί να είναι αυθαίρετη.
- Συνολικά, αυτά τα τρία συστατικά αποτελούν ένα βελτιστοποιητής, που βελτιστοποιείται για έναν συγκεκριμένο στόχο, ανεξάρτητα από τον κόσμο στον οποίο βρίσκεται.
Αυτό το απλό μοντέλο αντιπροσωπεύει έναν βασικό ορισμό ενός ευφυούς πράκτορα. Ο πράκτορας μελετά το περιβάλλον του, δημιουργεί μοντέλα και στη συνέχεια χρησιμοποιεί αυτά τα μοντέλα για να βρει την πορεία δράσης που θα μεγιστοποιήσει τις πιθανότητες να πάρει αυτό που θέλει. Το AIXI έχει παρόμοια δομή με ένα AI που παίζει σκάκι ή άλλα παιχνίδια με γνωστούς κανόνες - εκτός από το ότι είναι σε θέση να συμπεράνει τους κανόνες του παιχνιδιού παίζοντας, ξεκινώντας από μηδενική γνώση.
Το AIXI, που έχει αρκετό χρόνο για υπολογισμό, μπορεί να μάθει να βελτιστοποιεί οποιοδήποτε σύστημα για οποιονδήποτε στόχο, όσο περίπλοκο. Είναι ένας γενικά έξυπνος αλγόριθμος. Σημειώστε ότι αυτό δεν είναι το ίδιο με το να έχεις ανθρώπινη νοημοσύνη (η βιολογικά εμπνευσμένη AI είναι μια διαφορετικό θέμα συνολικά Giovanni Idili του OpenWorm: Brains, Worms και Artificial IntelligenceΗ προσομοίωση ενός ανθρώπινου εγκεφάλου είναι ένας τρόπος, αλλά ένα έργο ανοιχτού κώδικα λαμβάνει ζωτικά πρώτα βήματα, προσομοιώνοντας τη νευρολογία και τη φυσιολογία ενός από τα απλούστερα ζώα που είναι γνωστά στην επιστήμη. Διαβάστε περισσότερα ). Με άλλα λόγια, το AIXI μπορεί να είναι σε θέση να ξεγελάσει οποιονδήποτε άνθρωπο σε οποιοδήποτε πνευματικό έργο (δεδομένης επαρκούς υπολογιστικής δύναμης), αλλά μπορεί να μην έχει επίγνωση της νίκης του Μηχανές σκέψης: Τι μπορεί να μας διδάξει η Νευροεπιστήμη και η Τεχνητή Νοημοσύνη για τη ΣυνείδησηΜπορεί η κατασκευή τεχνητά ευφυών μηχανών και λογισμικού να μας διδάξει για τη λειτουργία της συνείδησης και τη φύση του ίδιου του ανθρώπινου νου; Διαβάστε περισσότερα .
Ως πρακτική AI, το AIXI έχει πολλά προβλήματα. Πρώτον, δεν έχει κανέναν τρόπο να βρει εκείνα τα προγράμματα που παράγουν το αποτέλεσμα που του ενδιαφέρει. Είναι ένας αλγόριθμος brute-force, που σημαίνει ότι δεν είναι πρακτικό εάν δεν τυχαίνει να έχετε έναν αυθαίρετα ισχυρό υπολογιστή. Οποιαδήποτε πραγματική εφαρμογή του AIXI είναι κατ 'ανάγκη μια προσέγγιση, και (σήμερα) γενικά αρκετά αργή. Ακόμα, το AIXI μας δίνει μια θεωρητική ματιά για το πώς μπορεί να μοιάζει μια ισχυρή τεχνητή νοημοσύνη και πώς μπορεί να δικαιολογηθεί.
Ο χώρος των αξιών
Αν έχετε κάνει οποιοδήποτε προγραμματισμό υπολογιστή Τα βασικά του προγραμματισμού υπολογιστών 101 - Μεταβλητές και τύποι δεδομένωνΈχοντας εισαγάγει και μιλήσει λίγο για τον Προγραμματισμένο Προγραμματισμό Αντικειμένου πριν και πού το ομώνυμο προέρχεται από, νόμιζα ότι ήρθε η ώρα να περάσουμε απόλυτα βασικά του προγραμματισμού σε ένα μη γλωσσικό συγκεκριμένο τρόπος. Αυτό... Διαβάστε περισσότερα , γνωρίζετε ότι οι υπολογιστές είναι ενοχλητικοί, πεισματικά και μηχανικά κυριολεκτικοί. Το μηχάνημα δεν γνωρίζει ούτε νοιάζεται τι θέλετε να κάνει: κάνει μόνο αυτό που του έχει πει. Αυτή είναι μια σημαντική έννοια όταν μιλάμε για ευφυΐα μηχανών.
Έχοντας αυτό κατά νου, φανταστείτε ότι έχετε εφεύρει μια ισχυρή τεχνητή νοημοσύνη - έχετε καταλήξει με έξυπνους αλγόριθμους για τη δημιουργία υποθέσεων που ταιριάζουν με τα δεδομένα σας και για τη δημιουργία καλού υποψηφίου σχέδια. Η τεχνητή νοημοσύνη σας μπορεί να λύσει γενικά προβλήματα και μπορεί να το κάνει αποτελεσματικά σε σύγχρονο υλικό υπολογιστή.
Τώρα ήρθε η ώρα να επιλέξετε μια συνάρτηση χρησιμότητας, η οποία θα καθορίσει τι αξίζει το AI. Τι πρέπει να το ζητήσετε; Θυμηθείτε, το μηχάνημα θα είναι ενοχλητικά, με λίγα λόγια κυριολεκτικά για όποια λειτουργία θέλετε να μεγιστοποιήσετε και δεν θα σταματήσει ποτέ - δεν υπάρχει φάντασμα το μηχάνημα που θα «ξυπνήσει» και θα αποφασίσει να αλλάξει τη λειτουργία χρησιμότητας, ανεξάρτητα από το πόσες βελτιώσεις της απόδοσης κάνει για τη δική του αιτιολογία.
Eliezer Yudkowsky το θέσω έτσι:
Όπως σε όλους τους υπολογιστές, η βασική πρόκληση και η βασική δυσκολία του AGI είναι ότι αν γράψουμε λάθος κώδικα, το AI δεν θα κοιτάξει αυτόματα τον κώδικά μας, θα διαγράψει τα λάθη, θα καταλάβει τι πραγματικά θέλαμε να πούμε και θα το κάνουμε αυτό αντι αυτου. Οι μη προγραμματιστές μερικές φορές φαντάζονται ένα AGI, ή προγράμματα υπολογιστών γενικά, ως ανάλογο με έναν υπηρέτη που ακολουθεί αναμφισβήτητα τις παραγγελίες. Αλλά δεν είναι ότι το AI είναι απολύτως υπάκουος στον κωδικό του · μάλλον, το AI απλά είναι ο κώδικας.
Εάν προσπαθείτε να χειριστείτε ένα εργοστάσιο και πείτε στο μηχάνημα να εκτιμά την παραγωγή συνδετήρων χαρτιού και, στη συνέχεια, να του δώσετε τον έλεγχο των πολλών εργοστασιακών ρομπότ, θα μπορούσε να επιστρέψει την επόμενη μέρα για να διαπιστώσει ότι έχει εξαντληθεί από κάθε άλλη μορφή πρώτης ύλης, σκότωσε όλους τους υπαλλήλους σας και έκανε συνδετήρες από τους λείψανα. Εάν, σε μια προσπάθεια να διορθώσετε το λάθος σας, επαναπρογραμματίσετε το μηχάνημα για να κάνετε απλά όλους ευχαριστημένους, μπορείτε να επιστρέψετε την επόμενη μέρα για να βρείτε ότι βάζει καλώδια στον εγκέφαλο των ανθρώπων.
Το σημείο εδώ είναι ότι οι άνθρωποι έχουν πολλές πολύπλοκες αξίες που υποθέτουμε ότι μοιράζονται σιωπηρά με άλλα μυαλά. Εκτιμούμε τα χρήματα, αλλά εκτιμούμε περισσότερο την ανθρώπινη ζωή. Θέλουμε να είμαστε ευτυχισμένοι, αλλά δεν θέλουμε απαραίτητα να βάλουμε καλώδια στον εγκέφαλό μας για να το κάνουμε. Δεν αισθανόμαστε την ανάγκη να διευκρινίσουμε αυτά τα πράγματα όταν δίνουμε οδηγίες σε άλλους ανθρώπους. Ωστόσο, δεν μπορείτε να κάνετε τέτοιου είδους υποθέσεις όταν σχεδιάζετε τη λειτουργία χρησιμότητας ενός μηχανήματος. Οι καλύτερες λύσεις κάτω από τα άψυχα μαθηματικά μιας απλής συνάρτησης χρησιμότητας είναι συχνά λύσεις που οι άνθρωποι θα έπρεπε να είναι ηθικά τρομακτικές.
Το να επιτρέπεται σε μια έξυπνη μηχανή να μεγιστοποιεί μια αφελής λειτουργία χρησιμότητας θα είναι σχεδόν πάντα καταστροφική. Όπως το λέει ο φιλόσοφος της Οξφόρδης, Nick Bostom,
Δεν μπορούμε να υποθέσουμε με σιγουριά ότι μια υπερ-ευφυΐα θα μοιραστεί απαραίτητα οποιαδήποτε από τις τελικές αξίες που συνδέονται στερεοτυπικά με τη σοφία και πνευματική ανάπτυξη στους ανθρώπους - επιστημονική περιέργεια, καλοπροαίρετη ανησυχία για τους άλλους, πνευματική διαφώτιση και στοχασμός, παραίτηση από υλική προσέλκυση, μια γεύση για εκλεπτυσμένο πολιτισμό ή για τις απλές απολαύσεις στη ζωή, ταπεινότητα και ανιδιοτέλεια και ούτω καθεξής.
Για να επιδεινωθούν τα πράγματα, είναι πολύ, πολύ δύσκολο να καθοριστεί η πλήρης και λεπτομερής λίστα όλων όσων εκτιμούν οι άνθρωποι. Υπάρχουν πολλές πτυχές στην ερώτηση, και το να ξεχνάμε ακόμη και ένα είναι δυνητικά καταστροφικό. Ακόμα και μεταξύ αυτών που γνωρίζουμε, υπάρχουν λεπτές αποχρώσεις και πολυπλοκότητες που καθιστούν δύσκολη την καταγραφή τους ως καθαρά συστήματα εξισώσεων που μπορούμε να δώσουμε σε μια μηχανή ως λειτουργία χρησιμότητας.
Μερικοί άνθρωποι, όταν το διαβάσουν, καταλήγουν στο συμπέρασμα ότι η δημιουργία τεχνητών νοημοσύνης με λειτουργίες χρησιμότητας είναι μια τρομερή ιδέα και θα πρέπει απλώς να τα σχεδιάσουμε διαφορετικά. Εδώ, υπάρχουν επίσης κακές ειδήσεις - μπορείτε να αποδείξετε, επίσημα, ότι οποιοσδήποτε πράκτορας που δεν έχει κάτι ισοδύναμο με μια λειτουργία χρησιμότητας δεν μπορεί να έχει συνεκτικές προτιμήσεις σχετικά με το μέλλον.
Αναδρομική αυτο-βελτίωση
Μία λύση στο παραπάνω δίλημμα είναι να μην δοθεί στους παράγοντες της AI η δυνατότητα να βλάψουν τους ανθρώπους: να τους δώσουν μόνο τους πόρους που χρειάζονται λύστε το πρόβλημα με τον τρόπο που σκοπεύετε να λυθεί, παρακολουθήστε τα στενά και κρατήστε τα μακριά από ευκαιρίες να κάνουν υπέροχα κανω κακο. Δυστυχώς, η ικανότητά μας να ελέγξουμε έξυπνα μηχανήματα είναι πολύ ύποπτη.
Ακόμα κι αν δεν είναι πολύ πιο έξυπνοι από εμάς, υπάρχει η δυνατότητα για "bootstrap" - να συλλέξει καλύτερο υλικό ή να κάνει βελτιώσεις στον δικό του κώδικα που το καθιστά ακόμη πιο έξυπνο. Αυτό θα μπορούσε να επιτρέψει σε μια μηχανή να ξεπεράσει την ανθρώπινη νοημοσύνη με πολλές τάξεις μεγέθους, ξεπερνώντας τους ανθρώπους με την ίδια έννοια που οι άνθρωποι ξεπερνούν τις γάτες. Αυτό το σενάριο προτάθηκε για πρώτη φορά από έναν άντρα που ονομάζεται Ι. Ι. Καλός, ο οποίος εργάστηκε στο έργο ανάλυσης κρυπτογράφησης Enigma με τον Alan Turing κατά τη διάρκεια του Β 'Παγκοσμίου Πολέμου. Το ονόμασε «Έκρηξη πληροφοριών» και περιέγραψε το θέμα ως εξής:
Αφήστε μια υπερ-ευφυή μηχανή να οριστεί ως μια μηχανή που μπορεί να ξεπεράσει κατά πολύ όλες τις πνευματικές δραστηριότητες οποιουδήποτε ανθρώπου, όσο έξυπνο. Δεδομένου ότι ο σχεδιασμός μηχανών είναι μία από αυτές τις πνευματικές δραστηριότητες, μια υπερ-έξυπνη μηχανή θα μπορούσε να σχεδιάσει ακόμη καλύτερα μηχανήματα. τότε θα υπήρχε αναμφισβήτητα μια «έκρηξη νοημοσύνης» και η νοημοσύνη του ανθρώπου θα μείνει πολύ πίσω. Έτσι, η πρώτη εξαιρετικά ευφυής μηχανή είναι η τελευταία εφεύρεση που χρειάζεται ποτέ ο άνθρωπος, υπό τον όρο ότι η μηχανή είναι αρκετά υπάκουη.
Δεν είναι εγγυημένο ότι μια έκρηξη νοημοσύνης είναι δυνατή στο σύμπαν μας, αλλά φαίνεται πιθανό. Με την πάροδο του χρόνου, οι υπολογιστές γίνονται γρηγορότεροι και βασικές πληροφορίες σχετικά με τη δημιουργία πληροφοριών. Αυτό σημαίνει ότι η απαίτηση πόρων για να κάνει αυτό το τελευταίο άλμα σε έναν γενικό, αυξάνοντας τη νοημοσύνη μειώνεται όλο και πιο κάτω. Σε κάποιο σημείο, θα βρεθούμε σε έναν κόσμο στον οποίο εκατομμύρια άνθρωποι μπορούν να οδηγήσουν σε μια καλύτερη αγορά και να πάρουν το υλικό και τεχνική βιβλιογραφία που χρειάζονται για να χτίσουν μια αυτο-βελτιωμένη τεχνητή νοημοσύνη, την οποία έχουμε ήδη δημιουργήσει μπορεί να είναι πολύ επικίνδυνος. Φανταστείτε έναν κόσμο στον οποίο θα μπορούσατε να φτιάξετε ατομικές βόμβες από ραβδιά και βράχια. Αυτό είναι το μέλλον που συζητάμε.
Και, εάν μια μηχανή κάνει αυτό το άλμα, θα μπορούσε πολύ γρήγορα να ξεπεράσει το ανθρώπινο είδος από άποψη πνευματικής παραγωγικότητα, επίλυση προβλημάτων που ένα δισεκατομμύριο άνθρωποι δεν μπορούν να λύσουν, με τον ίδιο τρόπο που οι άνθρωποι μπορούν να λύσουν προβλήματα που α δισεκατομμύρια γάτες δεν μπορούν.
Θα μπορούσε να αναπτύξει ισχυρά ρομπότ (ή βιο-νανοτεχνολογία) και να αποκτήσει σχετικά γρήγορα την ικανότητα να αναδιαμορφώσει τον κόσμο όπως θέλει, και θα μπορούσαμε να κάνουμε πολύ λίγα για αυτό. Μια τέτοια νοημοσύνη θα μπορούσε να απογυμνώσει τη Γη και το υπόλοιπο ηλιακό σύστημα για ανταλλακτικά χωρίς πολύ κόπο, στο δρόμο της να κάνει ό, τι της είπαμε. Φαίνεται πιθανό ότι μια τέτοια εξέλιξη θα ήταν καταστροφική για την ανθρωπότητα. Μια τεχνητή νοημοσύνη δεν χρειάζεται να είναι κακόβουλη για να καταστρέψει τον κόσμο, απλώς καταστροφικά αδιάφορη.
Όπως λέει και η παροιμία, "Το μηχάνημα δεν σας αγαπάει ή δεν σας μισεί, αλλά είστε κατασκευασμένοι από άτομα που μπορεί να χρησιμοποιηθεί για άλλα πράγματα."
Εκτίμηση κινδύνου και μετριασμός
Επομένως, εάν αποδεχθούμε ότι ο σχεδιασμός μιας ισχυρής τεχνητής νοημοσύνης που μεγιστοποιεί μια απλή λειτουργία χρησιμότητας είναι κακός, πόσα προβλήματα αντιμετωπίζουμε πραγματικά; Πόσο καιρό έχουμε προτού καταστεί δυνατή η κατασκευή αυτών των ειδών μηχανών; Φυσικά, είναι δύσκολο να το πούμε.
Οι προγραμματιστές τεχνητής νοημοσύνης είναι κάνοντας πρόοδο. 7 καταπληκτικοί ιστότοποι για να δείτε τα τελευταία στον προγραμματισμό τεχνητής νοημοσύνηςΗ Τεχνητή Νοημοσύνη δεν είναι ακόμα HAL από το 2001: The Space Odyssey… αλλά πλησιάζουμε πάρα πολύ. Σίγουρα, μια μέρα θα μπορούσε να μοιάζει με τα sci-fi potboilers που βγαίνουν από το Χόλιγουντ ... Διαβάστε περισσότερα Τα μηχανήματα που κατασκευάζουμε και τα προβλήματα που μπορούν να λύσουν έχουν αυξηθεί σταθερά. Το 1997, το Deep Blue θα μπορούσε να παίξει σκάκι σε επίπεδο μεγαλύτερο από ένα ανθρώπινο grandmaster. Το 2011, το Watson της IBM μπορούσε να διαβάσει και να συνθέσει αρκετές πληροφορίες τόσο βαθιά και αρκετά γρήγορα ώστε να κερδίσει τον καλύτερο άνθρωπο παίκτες σε ένα ανοιχτό παιχνίδι ερωτήσεων και απαντήσεων γεμάτο με λογοπαίγνια και λέξεις - αυτό έχει σημειώσει μεγάλη πρόοδο σε δεκατέσσερα χρόνια.
Αυτήν τη στιγμή, το Google είναι επενδύοντας σε μεγάλο βαθμό στην έρευνα της βαθιάς μάθησης, μια τεχνική που επιτρέπει την κατασκευή ισχυρών νευρωνικών δικτύων δημιουργώντας αλυσίδες απλούστερων νευρωνικών δικτύων. Αυτή η επένδυση της επιτρέπει να σημειώσει σημαντική πρόοδο στην αναγνώριση ομιλίας και εικόνας. Η πιο πρόσφατη απόκτησή τους στην περιοχή είναι μια εκκίνηση Deep Learning που ονομάζεται DeepMind, για την οποία πλήρωσαν περίπου 400 εκατομμύρια δολάρια. Ως μέρος των όρων της συμφωνίας, η Google συμφώνησε να δημιουργήσει έναν πίνακα δεοντολογίας για να διασφαλίσει ότι η τεχνολογία AI τους αναπτύσσεται με ασφάλεια.
Ταυτόχρονα, η IBM αναπτύσσει Watson 2.0 και 3.0, συστήματα που είναι σε θέση να επεξεργάζονται εικόνες και βίντεο και να υποστηρίζουν τα συμπεράσματα. Έδωσαν μια απλή, πρώιμη επίδειξη της ικανότητας του Watson να συνθέτει επιχειρήματα υπέρ και κατά ενός θέματος στην παρακάτω επίδειξη βίντεο. Τα αποτελέσματα είναι ατελή, αλλά ανεξάρτητα από ένα εντυπωσιακό βήμα.
Καμία από αυτές τις τεχνολογίες δεν είναι επικίνδυνη αυτή τη στιγμή: η τεχνητή νοημοσύνη ως πεδίο εξακολουθεί να αγωνίζεται να ταιριάξει με τις ικανότητες που κυριαρχούν τα μικρά παιδιά. Ο προγραμματισμός υπολογιστών και ο σχεδιασμός τεχνητής νοημοσύνης είναι μια πολύ δύσκολη, γνωστική δεξιότητα υψηλού επιπέδου και πιθανότατα θα είναι η τελευταία ανθρώπινη εργασία στην οποία οι μηχανές γίνονται ικανοί. Πριν φτάσουμε σε αυτό το σημείο, θα έχουμε επίσης πανταχού παρόντα μηχανήματα που μπορεί να οδηγήσει Δείτε πώς θα φτάσουμε σε έναν κόσμο γεμάτο με αυτοκίνητα χωρίς οδηγόΗ οδήγηση είναι μια κουραστική, επικίνδυνη και απαιτητική εργασία. Θα μπορούσε μια μέρα να αυτοματοποιηθεί από την τεχνολογία αυτοκινήτων χωρίς οδηγό της Google; Διαβάστε περισσότερα , πρακτική ιατρικής και νόμου, και πιθανώς και άλλα πράγματα, με βαθιές οικονομικές συνέπειες.
Ο χρόνος που θα χρειαστεί να φτάσουμε στο σημείο καμπής της αυτο-βελτίωσης εξαρτάται από το πόσο γρήγορα έχουμε καλές ιδέες. Η πρόβλεψη τεχνολογικών εξελίξεων αυτών των ειδών είναι εξαιρετικά δύσκολη. Δεν φαίνεται παράλογο να είμαστε σε θέση να οικοδομήσουμε ισχυρή τεχνητή νοημοσύνη σε είκοσι χρόνια, αλλά δεν φαίνεται παράλογο να χρειαστούν ογδόντα χρόνια. Σε κάθε περίπτωση, θα συμβεί τελικά, και υπάρχει λόγος να πιστεύουμε ότι όταν συμβεί, θα είναι εξαιρετικά επικίνδυνο.
Αν λοιπόν αποδεχθούμε ότι αυτό θα είναι πρόβλημα, τι μπορούμε να κάνουμε γι 'αυτό; Η απάντηση είναι να βεβαιωθείτε ότι τα πρώτα έξυπνα μηχανήματα είναι ασφαλή, έτσι ώστε να μπορούν να εκκινήσουν μέχρι ένα σημαντικό επίπεδο νοημοσύνης και, στη συνέχεια, να μας προστατεύσουν από μη ασφαλείς μηχανές που κατασκευάστηκαν αργότερα. Αυτή η «ασφάλεια» ορίζεται με το να μοιράζεσαι ανθρώπινες αξίες και να είσαι πρόθυμος να προστατεύσεις και να βοηθήσεις την ανθρωπότητα.
Επειδή δεν μπορούμε πραγματικά να καθίσουμε και να προγραμματίσουμε ανθρώπινες αξίες στο μηχάνημα, πιθανότατα θα είναι απαραίτητο να σχεδιάσουμε μια λειτουργία χρησιμότητας που απαιτεί το μηχάνημα να παρατηρήστε τους ανθρώπους, αφαιρέστε τις αξίες μας και, στη συνέχεια, προσπαθήστε να τις μεγιστοποιήσετε. Προκειμένου να καταστεί ασφαλής αυτή η διαδικασία ανάπτυξης, μπορεί επίσης να είναι χρήσιμο να αναπτυχθούν τεχνητές νοημοσύνη που είναι ειδικά σχεδιασμένες δεν να έχουν προτιμήσεις σχετικά με τις λειτουργίες χρησιμότητας τους, επιτρέποντάς μας να τις διορθώσουμε ή να τις απενεργοποιήσουμε χωρίς αντίσταση εάν αρχίσουν να παραπλανούνται κατά τη διάρκεια της ανάπτυξης.
Πολλά από τα προβλήματα που πρέπει να επιλύσουμε προκειμένου να οικοδομήσουμε μια ασφαλή μηχανή πληροφοριών είναι δύσκολα μαθηματικά, αλλά υπάρχει λόγος να πιστεύουμε ότι μπορούν να επιλυθούν. Ορισμένοι διαφορετικοί οργανισμοί εργάζονται για το θέμα, συμπεριλαμβανομένου του Το μέλλον του ανθρωπιστικού ινστιτούτου στην Οξφόρδη, και το Ινστιτούτο Μηχανικών Πληροφορικής (που χρηματοδοτεί ο Peter Thiel).
Το MIRI ενδιαφέρεται ειδικά για την ανάπτυξη των μαθηματικών που απαιτούνται για την κατασκευή του Friendly AI. Εάν αποδειχθεί ότι είναι δυνατή η τεχνητή νοημοσύνη εκκίνησης, τότε αναπτύξτε αυτό το είδος Η τεχνολογία «φιλική τεχνητή νοημοσύνη» πρώτα, εάν είναι επιτυχής, μπορεί να καταστεί το μοναδικό πιο σημαντικό πράγμα που έχουν οι άνθρωποι έγινε ποτέ.
Πιστεύετε ότι η τεχνητή νοημοσύνη είναι επικίνδυνη; Ανησυχείτε για το τι μπορεί να φέρει το μέλλον της AI; Μοιραστείτε τις σκέψεις σας στην παρακάτω ενότητα σχολίων!
Συντελεστές εικόνας: Lwp Kommunikáció Via Flickr, “Νευρικό σύστημα", Από το fdecomite," img_7801", Του Steve Rainwater," E-Volve ", του Keoni Cabral,"νέο_20x", Από τον Robert Cudmore,"Συνδετήρες", Από τον Clifford Wallace
Ένας συγγραφέας και δημοσιογράφος που εδρεύει στη Νοτιοδυτική πλευρά, ο Andre είναι εγγυημένος ότι θα παραμείνει λειτουργικός έως 50 βαθμούς Κελσίου και είναι αδιάβροχος σε βάθος δώδεκα ποδιών.