Οι ειδικοί πιστεύουν ότι η τεχνητή νοημοσύνη θα δώσει τέλος στην ανθρωπότητα όπως την ξέρουμε, οπότε τι γίνεται για να σταματήσει να συμβεί;
Για άλλη μια φορά, μια ομάδα κορυφαίων ερευνητών τεχνητής νοημοσύνης και εταιρειών τεχνολογίας έχουν προειδοποιήσει ότι η τρέχουσα ταχεία ανάπτυξη της τεχνητής νοημοσύνης θα μπορούσε να οδηγήσει σε καταστροφή για την ανθρωπότητα.
Οι κίνδυνοι καλύπτουν πυρηνικές συγκρούσεις, ασθένειες, παραπληροφόρηση και φυγή τεχνητής νοημοσύνης που στερείται εποπτείας, τα οποία αποτελούν άμεση απειλή για την ανθρώπινη επιβίωση.
Αλλά δεν θα χαθεί ότι πολλές από αυτές τις προειδοποιήσεις προέρχονται από τους ίδιους ανθρώπους που ηγούνται της ανάπτυξης τεχνητής νοημοσύνης και προωθούν εργαλεία και προγράμματα τεχνητής νοημοσύνης στις αντίστοιχες εταιρείες τους.
Γιατί οι εταιρείες τεχνολογίας και οι επιστήμονες της τεχνητής νοημοσύνης προειδοποιούν για τον κίνδυνο AI;
Στις 30 Μαΐου 2023, περισσότεροι από 350 ερευνητές, προγραμματιστές και μηχανικοί τεχνητής νοημοσύνης δημοσίευσαν μια συνυπογεγραμμένη δήλωση προειδοποιώντας ενάντια στην απειλή της τεχνητής νοημοσύνης για την ανθρωπότητα.
Ο μετριασμός του κινδύνου εξαφάνισης από την τεχνητή νοημοσύνη θα πρέπει να αποτελεί παγκόσμια προτεραιότητα μαζί με άλλους κινδύνους κοινωνικής κλίμακας, όπως οι πανδημίες και ο πυρηνικός πόλεμος.
Οι υπογράφοντες στο Δήλωση Safe.ai περιελάμβανε τον Sam Altman του OpenAI, τον Demis Hassabis του Google DeepMind και τον Dario Amodei του Anthropic, μαζί με τον Turing Οι νικητές του βραβείου Geoffrey Hinton και Yoshua Bengio (αν και ο Yann LeCun, ο οποίος κέρδισε επίσης το ίδιο βραβείο, αμέλησε να υπογράψει). Η λίστα είναι σχεδόν ποιος από τον κόσμο ανάπτυξης της τεχνητής νοημοσύνης - οι άνθρωποι που πρωτοστατούν με την τεχνητή νοημοσύνη - αλλά είναι όλοι εδώ, προειδοποιώντας ότι η τεχνητή νοημοσύνη θα μπορούσε να σημάνει καταστροφή για την ανθρωπότητα.
Είναι μια σύντομη δήλωση που καθιστά σαφείς τις απειλές, αναφέροντας συγκεκριμένα δύο βασικούς τομείς που θα μπορούσαν να θέσουν σε κίνδυνο τον κόσμο όπως τον ξέρουμε: ο πυρηνικός πόλεμος και τα παγκόσμια θέματα υγείας. Ενώ η απειλή της πυρηνικής σύγκρουσης είναι ανησυχητική, ο κίνδυνος μιας πανδημίας είναι μια πιο απτή απειλή για τους περισσότερους.
Ωστόσο, δεν είναι μόνο μια παγκόσμια πανδημία που θα μπορούσε να προκαλέσει προβλήματα υγείας που σχετίζονται με την τεχνητή νοημοσύνη. Ο κηδεμόνας αναφέρει διάφορα άλλα ζητήματα υγείας της τεχνητής νοημοσύνης που θα μπορούσαν να επηρεάσουν τους ανθρώπους εάν δεν ελεγχθούν πριν από την ευρεία χρήση. Ένα παράδειγμα σχετίζεται με τη χρήση οξύμετρων με τεχνητή νοημοσύνη που «υπερεκτίμησαν τα επίπεδα οξυγόνου στο αίμα σε ασθενείς με πιο σκούρο δέρμα, με αποτέλεσμα την υποθεραπεία της υποξίας τους».
Επιπλέον, δεν είναι η πρώτη φορά που μια ομάδα ηγετών τεχνολογίας ζητά παύση ή σοβαρή επανεκτίμηση της ανάπτυξης της τεχνητής νοημοσύνης. Τον Μάρτιο του 2023, Ο Έλον Μασκ και άλλοι ερευνητές της τεχνητής νοημοσύνης υπέγραψαν μια παρόμοια παρότρυνση για δράση ζητώντας μορατόριουμ για την ανάπτυξη της τεχνητής νοημοσύνης έως ότου εφαρμοστούν περισσότεροι κανονισμοί που θα βοηθήσουν στην καθοδήγηση της διαδικασίας.
Ποιος είναι ο κίνδυνος της τεχνητής νοημοσύνης;
Οι περισσότεροι από τους κινδύνους που συνδέονται με την τεχνητή νοημοσύνη, τουλάχιστον σε αυτό το πλαίσιο, σχετίζονται με την ανάπτυξη της τεχνολογίας τρελής τεχνητής νοημοσύνης που ξεπερνά τις δυνατότητες των ανθρώπων, στις οποίες τελικά στρέφεται εναντίον του δημιουργού του και εξαφανίζει τη ζωή όπως ξέρουμε το. Είναι μια ιστορία που καλύπτεται αμέτρητες φορές σε γραφή επιστημονικής φαντασίας, αλλά η πραγματικότητα είναι πλέον πιο κοντά από ό, τι νομίζουμε.
Τα μοντέλα μεγάλων γλωσσών (που υποστηρίζουν εργαλεία όπως το ChatGPT) αυξάνονται δραστικά σε δυνατότητες. Ωστόσο, εργαλεία όπως το ChatGPT έχουν πολλά προβλήματα, όπως η εγγενής προκατάληψη, οι ανησυχίες για το απόρρητο και η ψευδαίσθηση της τεχνητής νοημοσύνης, πόσο μάλλον η ικανότητά του να είναι jailbroken για να ενεργεί εκτός των ορίων των προγραμματισμένων όρων και προϋποθέσεων.
Καθώς τα μεγάλα μοντέλα γλωσσών αυξάνονται και έχουν περισσότερα σημεία δεδομένων προς χρήση, μαζί με πρόσβαση στο διαδίκτυο και μεγαλύτερη κατανοώντας τα τρέχοντα γεγονότα, οι ερευνητές της τεχνητής νοημοσύνης φοβούνται ότι μια μέρα, σύμφωνα με τα λόγια του Διευθύνοντος Συμβούλου του OpenAI, Sam Altman, «θα πάει αρκετά λανθασμένος."
Πώς ρυθμίζουν οι κυβερνήσεις την ανάπτυξη AI για να σταματήσουν τους κινδύνους;
Η ρύθμιση της τεχνητής νοημοσύνης είναι το κλειδί για την πρόληψη των κινδύνων. Στις αρχές Μαΐου 2023, Ο Sam Altman ζήτησε περισσότερη ρύθμιση της τεχνητής νοημοσύνης, δηλώνοντας ότι «η ρυθμιστική παρέμβαση από τις κυβερνήσεις θα είναι κρίσιμη για τον μετριασμό των κινδύνων των ολοένα και πιο ισχυρών μοντέλων».
Μετά το Η Ευρωπαϊκή Ένωση ανακοίνωσε τον νόμο AI, ένας κανονισμός που έχει σχεδιαστεί για να παρέχει ένα πολύ ισχυρότερο πλαίσιο για την ανάπτυξη της τεχνητής νοημοσύνης σε ολόκληρη την ΕΕ (με πολλούς κανονισμούς να διαχέονται σε άλλες δικαιοδοσίες). Ο Altman αρχικά απείλησε να αποσύρει το OpenAI από την ΕΕ, αλλά στη συνέχεια απέρριψε την απειλή του και συμφώνησε ότι η εταιρεία θα συμμορφωθεί με τον κανονισμό AI που είχε ζητήσει προηγουμένως.
Ανεξάρτητα από αυτό, είναι σαφές ότι η ρύθμιση της ανάπτυξης και των χρήσεων της τεχνητής νοημοσύνης είναι σημαντική.
Η τεχνητή νοημοσύνη θα δώσει τέλος στην ανθρωπότητα;
Καθώς μεγάλο μέρος της συζήτησης γύρω από αυτό το θέμα βασίζεται σε υποθετικές πληροφορίες σχετικά με τη δύναμη των μελλοντικών εκδόσεων της τεχνητής νοημοσύνης, υπάρχουν ζητήματα σχετικά με τη μακροζωία και την ισχύ που μπορεί να έχει οποιοσδήποτε κανονισμός για την τεχνητή νοημοσύνη. Πώς είναι καλύτερο να ρυθμίσετε έναν κλάδο που ήδη κινείται με χίλια μίλια το λεπτό και οι καινοτομίες στην ανάπτυξη συμβαίνουν καθημερινά;
Επιπλέον, εξακολουθεί να υπάρχει αμφιβολία για τις δυνατότητες της τεχνητής νοημοσύνης γενικά και πού θα καταλήξει. Ενώ εκείνοι που φοβούνται το χειρότερο επισημαίνουν ότι η τεχνητή γενική νοημοσύνη γίνεται κυρίαρχος του ανθρώπου, άλλοι το επισημαίνουν γεγονός ότι οι τρέχουσες εκδόσεις της τεχνητής νοημοσύνης δεν μπορούν καν να κάνουν βασικές ερωτήσεις μαθηματικών και ότι τα αυτοκίνητα με πλήρη αυτοοδήγηση εξακολουθούν να είναι ένας τρόπος μακριά από.
Είναι δύσκολο να μην συμφωνήσεις με αυτούς που ατενίζουν το μέλλον. Πολλοί από τους ανθρώπους που φωνάζουν πιο δυνατά για τα ζητήματα που μπορεί να θέτει η τεχνητή νοημοσύνη βρίσκονται στη θέση του οδηγού, κοιτάζοντας προς τα πού μπορεί να κατευθυνόμαστε. Εάν είναι αυτοί που απαιτούν ρύθμιση της τεχνητής νοημοσύνης για να μας προστατεύσουν από ένα δυνητικά φρικτό μέλλον, ίσως είναι καιρός να ακούσουμε.