Οι πιο πρόσφατες καινοτομίες γύρω από την τεχνολογία που βασίζεται στην τεχνητή νοημοσύνη ξεπερνούν τα όρια αυτού που κάποτε πιστεύαμε ότι ήταν δυνατό με την τεχνητή νοημοσύνη. Ωστόσο, με τα chatbots όπως το ChatGPT και το Bing Chat να γίνονται σχεδόν τόσο καλά όσο οι άνθρωποι σε πολλά πράγματα, είναι καιρός να πατήσετε φρένο για λίγο;
Ο Έλον Μασκ και αρκετοί ερευνητές της τεχνητής νοημοσύνης είναι μεταξύ των 1.188 ατόμων (τη στιγμή που γράφτηκε το άρθρο) που το πιστεύουν. Μια επιστολή που δημοσιεύτηκε από το μη κερδοσκοπικό ινστιτούτο Future of Life ζητά μια εξάμηνη παύση στην εκπαίδευση τεχνολογιών τεχνητής νοημοσύνης καλύτερα από το GPT 4, αλλά απαιτείται πραγματικά μια παύση;
Τι είναι το Μέλλον της Ζωής Ανοιχτή Επιστολή;
ο επιστολή που δημοσιεύτηκε από το ινστιτούτο Future of Life επισημαίνει ότι τα εργαστήρια τεχνητής νοημοσύνης έχουν «κλειδωθεί σε έναν αγώνα εκτός ελέγχου» για να αναπτύξουν και να αναπτύξουν περισσότερα και πιο ισχυρά μοντέλα τεχνητής νοημοσύνης που κανείς, συμπεριλαμβανομένων των δημιουργών τους, δεν μπορεί να «καταλάβει, να προβλέψει ή αξιόπιστα έλεγχος".
Επισημαίνει επίσης ότι τα σύγχρονα συστήματα AI γίνονται πλέον ανταγωνιστικά για τον άνθρωπο σε γενικές εργασίες και ζητά αν πρέπει να αναπτύξουμε «μη ανθρώπινα μυαλά που θα μπορούσαν τελικά να ξεπεράσουν αριθμητικά, να ξεπεράσουν, να ξεπεραστούν και να αντικαταστήσουν μας".
Η επιστολή καλεί τελικά όλα τα εργαστήρια τεχνητής νοημοσύνης να σταματήσουν αμέσως την εκπαίδευση συστημάτων AI πιο ισχυρών από το GPT-4 για τουλάχιστον έξι μήνες. Η παύση θα πρέπει να είναι δημόσια και επαληθεύσιμη και σε όλους τους βασικούς παράγοντες. Αναφέρει επίσης ότι εάν μια τέτοια παύση δεν μπορεί να επιβληθεί γρήγορα, οι κυβερνήσεις θα πρέπει να παρέμβουν για να απαγορεύσουν προσωρινά την εκπαίδευση μοντέλων τεχνητής νοημοσύνης.
Μόλις ενεργοποιηθεί η παύση, τα εργαστήρια τεχνητής νοημοσύνης και οι ανεξάρτητοι εμπειρογνώμονες καλούνται να τη χρησιμοποιήσουν για την από κοινού ανάπτυξη και εφαρμογή "κοινό σύνολο πρωτοκόλλων ασφαλείας" για να διασφαλιστεί ότι τα συστήματα που συμμορφώνονται με αυτούς τους κανόνες είναι "ασφαλή πέρα από ένα εύλογο αμφιβολία".
Αυτή η επιστολή έχει υπογραφεί από αρκετές επώνυμες προσωπικότητες, συμπεριλαμβανομένων των Elon Musk, Steve Wozniak και ερευνητών και συγγραφέων AI. Μάλιστα, η λίστα των υπογραφόντων έχει τεθεί σε παύση λόγω μεγάλης ζήτησης.
Ποιες είναι οι ανησυχίες του Μασκ με την προηγμένη τεχνολογία AI και το OpenAI;
Ενώ η υπογραφή της επιστολής του Future of Life μπορεί να υποδηλώνει ότι ο Μασκ ανησυχεί για τους κινδύνους ασφαλείας που θέτουν τέτοια προηγμένα συστήματα τεχνητής νοημοσύνης, ο πραγματικός λόγος μπορεί να είναι κάτι άλλο.
Ο Musk συνίδρυσε το OpenAI με τον σημερινό διευθύνοντα σύμβουλο Sam Altman το 2015 ως μη κερδοσκοπική. Ωστόσο, έβαλε τα κεφάλια του με τον Altman αργότερα το 2018, αφού συνειδητοποίησε ότι δεν ήταν ευχαριστημένος με την πρόοδο της εταιρείας. Ο Musk φέρεται να ήθελε να αναλάβει για να επιταχύνει την ανάπτυξη, αλλά ο Altman και το διοικητικό συμβούλιο του OpenAI κατέρριψαν την ιδέα.
Ο Μασκ έφυγε από το OpenAI λίγο αργότερα και πήρε μαζί του τα χρήματά του, αθέτοντας την υπόσχεσή του να συνεισφέρει 1 δισεκατομμύριο σε χρηματοδότηση και έδωσε μόνο 100 εκατομμύρια πριν φύγει. Αυτό ανάγκασε την OpenAI να γίνει ιδιωτική εταιρεία λίγο μετά τον Μάρτιο του 2019 για να συγκεντρώσει χρηματοδότηση για να συνεχίσει την έρευνά της.
Ένας άλλος λόγος για τον οποίο έφυγε ο Musk ήταν ότι η ανάπτυξη AI στην Tesla θα προκαλούσε σύγκρουση συμφερόντων στο μέλλον. Είναι προφανές ότι η Tesla χρειάζεται προηγμένα συστήματα τεχνητής νοημοσύνης για να την τροφοδοτήσει Πλήρεις δυνατότητες αυτοοδήγησης. Από τότε που ο Musk έφυγε από το OpenAI, η εταιρεία έχει ξεφύγει με τα μοντέλα AI, λανσάροντας ChatGPT με GPT3.5 το 2022 και αργότερα με το GPT-4 τον Μάρτιο του 2023.
Το γεγονός ότι η ομάδα τεχνητής νοημοσύνης του Μασκ δεν είναι πουθενά κοντά στο OpenAI πρέπει να λαμβάνεται υπόψη κάθε φορά που λέει ότι τα σύγχρονα μοντέλα τεχνητής νοημοσύνης θα μπορούσαν να ενέχουν κινδύνους. Επίσης δεν είχε κανένα πρόβλημα λανσάροντας το Tesla Full Self-Driving beta σε δημόσιους δρόμους, μετατρέποντας ουσιαστικά τους κανονικούς οδηγούς Tesla σε δοκιμαστές beta.
Ούτε αυτό τελειώνει εδώ. Ο Μασκ ήταν επίσης μάλλον επικριτικός για το OpenAI στο Twitter, με τον Άλτμαν να λέει ότι τους επιτίθεται ενώ εμφανίστηκε πρόσφατα στο podcast "On with Kara Swisher".
Προς το παρόν, φαίνεται ότι ο Μασκ απλώς χρησιμοποιεί την επιστολή Future of Life για να σταματήσει την ανάπτυξη στο OpenAI και σε οποιαδήποτε άλλη εταιρεία προλαβαίνει στο GPT-4 για να δώσει στις εταιρείες του την ευκαιρία να καλύψουν τη διαφορά αντί να ανησυχούν πραγματικά για τους πιθανούς κινδύνους αυτά τα μοντέλα τεχνητής νοημοσύνης στάση. Σημειώστε ότι η επιστολή ζητά επίσης να σταματήσει η «εκπαίδευση» των συστημάτων τεχνητής νοημοσύνης για έξι μήνες, κάτι που μπορεί σχετικά εύκολα να παρακαμφθεί για να συνεχιστεί η ανάπτυξή τους στο μεταξύ.
Χρειάζεται πραγματικά μια παύση;
Η ανάγκη για παύση εξαρτάται από την κατάσταση των μοντέλων τεχνητής νοημοσύνης στο μέλλον. Το γράμμα έχει σίγουρα λίγο δραματικό τόνο και δεν διακινδυνεύουμε να χάσουμε τον έλεγχο του πολιτισμού μας από την τεχνητή νοημοσύνη, όπως δηλώνει τόσο ανοιχτά. Εχοντας πεί αυτό, Οι τεχνολογίες AI αποτελούν ορισμένες απειλές.
Δεδομένου ότι το OpenAI και άλλα εργαστήρια τεχνητής νοημοσύνης μπορούν να βρουν καλύτερους ελέγχους ασφαλείας, μια παύση θα έκανε περισσότερο κακό παρά καλό. Ωστόσο, η πρόταση της επιστολής για ένα σύνολο κοινών πρωτοκόλλων ασφάλειας που «ελέγχονται αυστηρά και επιβλέπονται από ανεξάρτητους εξωτερικούς εμπειρογνώμονες» ακούγεται καλή ιδέα.
Με τους τεχνολογικούς γίγαντες όπως η Google και η Microsoft να ρίχνουν δισεκατομμύρια στην ανάπτυξη και την ενσωμάτωση της τεχνητής νοημοσύνης στα προϊόντα τους, είναι απίθανο η επιστολή να επηρεάσει τον τρέχοντα ρυθμό ανάπτυξης της τεχνητής νοημοσύνης.
Το AI είναι εδώ για να μείνει
Με τους τεχνολογικούς γίγαντες να προωθούν περαιτέρω την ενσωμάτωση της τεχνητής νοημοσύνης στα προϊόντα τους και να επενδύουν δισεκατομμύρια δολάρια σε έρευνα και ανάπτυξη, η τεχνητή νοημοσύνη είναι εδώ για να μείνει, ανεξάρτητα από το τι λέει η αντιπολίτευση.
Αλλά δεν είναι κακή ιδέα να εφαρμόσετε μέτρα ασφαλείας για να αποτρέψετε αυτές τις τεχνολογίες από το να βγουν από τις ράγες και ενδεχομένως να μετατραπούν σε εργαλεία για κακό.