Φοβάστε την υπερευφυή τεχνητή νοημοσύνη; Έτσι πρέπει, μας λέει ο νευροεπιστήμων και φιλόσοφος Σαμ Χάρις - και όχι μόνο σε θεωρητικό επίπεδο. Πρόκειται να φτιάξουμε υπεράνθρωπες μηχανές, λέει ο Χάρις, αλλά ακόμα δεν έχουμε λύσει τα προβλήματα που σχετίζονται με τη δημιουργία κάποιου πράγματος που μπορεί να μας μεταχειριστεί όπως εμείς μεταχειριζόμαστε τα μυρμήγκια.
Θα σας μιλήσω για ένα σφάλμα στη λογική που έχουν πολλοί από εμάς. Στην ουσία είναι αδυναμία να δούμε ένα ορισμένο είδος κινδύνου. Θα περιγράψω ένα σενάριο που θεωρώ ταυτόχρονα τρομακτικό, αλλά και πιθανό να συμβεί, και δεν είναι καλός συνδυασμός, όπως τελικά αποδεικνύεται. Αλλά αντί να τρομοκρατείστε, οι περισσότεροι πιστεύετε ότι αυτό που σας λέω είναι μάλλον ωραίο.
Θα σας περιγράψω πώς τα οφέλη που θα δρέψουμε από την τεχνητή νοημοσύνη μπορούν εν τέλει να μας καταστρέψουν. Και μάλιστα το θεωρώ απίθανο είτε να μην μας καταστρέψουν ή να μας εμπνεύσουν να καταστραφούμε μόνοι μας. Αν όμως σκέφτεστε όπως εγώ, θα το απολαμβάνετε να σκέφτεστε αυτά τα πράγματα. Κι αυτή η αντίδραση είναι μέρος του προβλήματος. Εντάξει; Αυτή η αντίδραση θα πρέπει να σας ανησυχεί. Κι αν επρόκειτο να σας πείσω με αυτή την ομιλία ότι είναι πιθανόν να αντιμετωπίσουμε παγκόσμιο λιμό, είτε λόγω κλιματικής αλλαγής ή κάποιας άλλης καταστροφής, και ότι τα εγγόνια σας, ή τα δικά τους εγγόνια, είναι πολύ πιθανόν να ζήσουν κάπως έτσι, δεν θα σκεφτόσασταν, «Ενδιαφέρον. Μου αρέσει αυτή η ομιλία TED».
Ο λιμός δεν είναι κάτι διασκεδαστικό. Από την άλλη, ο θάνατος μέσω επιστημονικής φαντασίας είναι διασκεδαστικός, και κάτι που με ανησυχεί σε αυτό το στάδιο της εξέλιξης της τεχνητής νοημοσύνης είναι ότι αδυνατούμε να επιδείξουμε μια κατάλληλη συναισθηματική αντίδραση στους επικείμενους κινδύνους. Ούτε εγώ μπορώ να έχω αυτή την αντίδραση και κάνω αυτή την ομιλία.
Είναι σαν να στεκόμαστε μπροστά σε δύο πόρτες. Πίσω από την πρώτη πόρτα, παύουμε να κάνουμε πρόοδο στην παραγωγή ευφυών μηχανών. Για κάποιον λόγο παύουμε να βελτιώνουμε υλισμικό και λογισμικό στους υπολογιστές. Τώρα σκεφτείτε για λίγο γιατί μπορεί να συμβεί αυτό. Εννοώ ότι, δεδομένης της μεγάλης αξίας της ευφυίας και των αυτοματισμών, εφόσον μπορούμε, θα συνεχίσουμε να βελτιώνουμε την τεχνολογία μας. Τι μπορεί να μας αποτρέψει; Ένας πυρηνικός πόλεμος πλήρους κλίμακας; Μια παγκόσμια πανδημία; Μια σύγκρουση με αστεροειδή; Να γίνει ο Τζάστιν Μπίμπερ πρόεδρος των ΗΠΑ;
Το θέμα είναι ότι κάτι θα πρέπει να καταστρέψει τον σύγχρονο πολιτισμό. Θα πρέπει να φανταστείτε πόσο οδυνηρό πρέπει να είναι για να μας αποτρέψει από το να βελτιώσουμε την τεχνολογία μας σε μόνιμη βάση, στις επόμενες γενεές. Αυτό είναι σχεδόν εξ ορισμού ό,τι χειρότερο έχει ποτέ συμβεί στην ανθρώπινη ιστορία.
Έτσι η μόνη εναλλακτική -κι αυτή βρίσκεται πίσω από τη δεύτερη πόρτα- είναι να συνεχίσουμε να βελτιώνουμε τις έξυπνες μηχανές μας χρόνο με τον χρόνο. Σε κάποιο σημείο, θα φτιάξουμε μηχανές που θα είναι πιο έξυπνες από εμάς, κι όταν θα έχουμε μηχανές εξυπνότερες από εμάς, θα αρχίσουν να βελτιώνονται μόνες τους. Τότε διακινδυνεύουμε να έχουμε κάτι που ο μαθηματικός Ι. Τζ. Γκουντ αποκάλεσε «έκρηξη ευφυίας», όπου η διαδικασία μπορεί να φύγει από τον έλεγχό μας.
Αυτό συχνά απεικονίζεται, όπως σας δείχνω εδώ, ως ένας φόβος ότι στρατιές από κακόβουλα ρομπότ θα μας επιτεθούν. Αλλά αυτό δεν είναι το πιο πιθανό σενάριο. Δεν είναι ότι οι μηχανές μας θα γίνουν αυθόρμητα κακόβουλες. Η πραγματική ανησυχία είναι ότι θα φτιάξουμε μηχανές που θα είναι τόσο πιο ικανές από εμάς που η ελάχιστη απόκλιση μεταξύ των δικών τους στόχων και των δικών μας θα μπορούσε να μας καταστρέψει.
Σκεφτείτε τη σχέση μας με τα μυρμήγκια. Δεν τα μισούμε. Δεν τα βλάπτουμε εκουσίως. Συχνά μάλιστα κάνουμε προσπάθεια να μην τα βλάψουμε. Αποφεύγουμε να τα πατήσουμε στο πεζοδρόμιο. Αλλά όταν η παρουσία τους αντιτίθεται σοβαρά με τους στόχους μας, ας πούμε, όταν φτιάχνουμε ένα τέτοιο κτήριο, τα εκμηδενίζουμε χωρίς δεύτερη σκέψη. Η ανησυχία είναι ότι μια μέρα θα φτιάξουμε μηχανές που, είτε ενσυνείδητα ή όχι, θα μας μεταχειριστούν με παρόμοια αδιαφορία.
Υποψιάζομαι ότι οι περισσότεροι το θεωρείτε παρατραβηγμένο. Βάζω στοίχημα ότι κάποιοι αμφιβάλλουν αν η υπερευφυής τεχνητή νοημοσύνη είναι εφικτή, πολύ δε λιγότερο αναπόφευκτη. Τότε όμως πρέπει να βρείτε κάποιο λάθος στις ακόλουθες υποθέσεις. Και είναι μόνο τρεις υποθέσεις.
Η ευφυΐα είναι θέμα επεξεργασίας της πληροφορίας σε υλικά συστήματα. Βασικά, αυτό είναι κάτι παραπάνω από μια υπόθεση. Έχουμε ήδη ενσωματώσει περιορισμένη ευφυΐα στις μηχανές μας, και πολλές από αυτές ήδη αποδίδουν σε επίπεδο υπεράνθρωπης ευφυΐας. Και ξέρουμε πως η απλή ύλη μπορεί να δημιουργήσει αυτό που λέγεται «γενική ευφυΐα», μια ικανότητα να σκεφτούμε ευέλικτα σε πολλαπλά επίπεδα, επειδή τα μυαλά μας τα έχουν καταφέρει, σωστά; Εξάλλου μόνο άτομα υπάρχουν εκεί, και όσο συνεχίζουμε να φτιάχνουμε συστήματα από άτομα που επιδεικνύουν όλο και περισσότερο ευφυή συμπεριφορά, αν δεν μας σταματήσει κάποιος, τελικά θα βάλουμε τη γενική ευφυΐα μέσα στις μηχανές μας.
Είναι σημαντικό να καταλάβουμε ότι δεν έχει σημασία ο ρυθμός της προόδου, γιατί κάθε πρόοδος είναι αρκετή για να οδηγήσει σε αυτή την κατάληξη. Δεν χρειάζεται ο Νόμος του Μουρ, ούτε κάποια εκθετική πρόοδος. Χρειάζεται απλώς να συνεχίσουμε.
Η δεύτερη υπόθεση είναι ότι θα συνεχίσουμε. Θα συνεχίσουμε να βελτιώνουμε τις έξυπνες μηχανές μας. Και σύμφωνα με την αξία της ευφυΐας - εννοώ ότι είτε η ευφυΐα είναι η πηγή για ό,τι θεωρούμε άξιο, ή χρειάζεται να περιφρουρήσουμε οτιδήποτε θεωρούμε άξιο. Είναι ο πιο πολύτιμος πόρος που έχουμε. Έτσι, θέλουμε να το κάνουμε. Έχουμε προβλήματα και πρέπει να τα λύσουμε επειγόντως. Θέλουμε να θεραπεύσουμε νόσους όπως τον καρκίνο και την Αλτσχάιμερ, να καταλάβουμε οικονομικά συστήματα, να βελτιώσουμε τη γνώση μας για το κλίμα. Γι' αυτό θα το κάνουμε, αν μπορούμε. Το τρένο έχει ήδη ξεκινήσει και δεν έχει φρένο.
Τέλος, δεν έχουμε φτάσει στην αποκορύφωση της ευφυΐας, μάλλον ούτε που την πλησιάσαμε. Και αυτή είναι η σημαντική διαπίστωση. Αυτό κάνει τόσο επισφαλή την κατάστασή μας, και τόσο αναξιόπιστα τα προαίσθήματά μας σχετικά με το ρίσκο.
Απλώς σκεφτείτε το πιο έξυπνο άτομο που έχει ποτέ ζήσει. Κάποιον που όλοι σας θα έχετε κατά νου είναι ο Τζον φον Νόιμαν. Η εντύπωση που έκανε στους τριγύρω του ο φον Νόιμαν, συμπεριλαμβανομένων των πιο λαμπρών μαθηματικών και φυσικών της εποχής του, έχει καταγραφεί επαρκώς. Και μόνο οι μισές ιστορίες γι' αυτόν να αληθεύουν, χωρίς αμφιβολία είναι από τους πιο έξυπνους ανθρώπους που έχουν ζήσει. Σκεφτείτε λοιπόν το φάσμα της ευφυΐας. Εδώ είναι ο Τζον φον Νόιμαν. Κι εδώ είμαστε εσείς κι εγώ. Μετά είναι οι κότες.
Συγνώμη, μια κότα.
Δεν υπάρχει λόγος να κάνω την ομιλία πιο θλιβερή απ' όσο χρειάζεται.
Ωστόσο, φαίνεται εκπληκτικά πιθανόν ότι το φάσμα της ευφυΐας εκτείνεται πολύ πιο πέρα από όσο τώρα αντιλαμβανόμαστε, και αν φτιάξουμε μηχανές πιο έξυπνες από εμάς, είναι πολύ πιθανόν να εξερευνήσουν αυτό το φάσμα με τρόπους που δεν μπορούμε να φανταστούμε και να μας ξεπεράσουν σε αφάνταστο βαθμό.
Και είναι σημαντικό να αναγνωρίσουμε ότι αυτό αληθεύει και μόνο λόγω ταχύτητας. Σωστά; Φανταστείτε να φτιάχναμε μια υπερευφυή τεχνητή νοημοσύνη, που δεν θα ήταν εξυπνότερη από μια μέση ομάδα ερευνητών των πανεπιστημίων Στάνφορντ ή ΜΙΤ. Τα ηλεκτρονικά κυκλώματα λειτουργούν ένα εκατομμύριο φορές ταχύτερα από τα βιοχημικά, έτσι αυτή η μηχανή θα σκεφτόταν ένα εκατομμύριο φορές πιο γρήγορα από τους εγκεφάλους που την έφτιαξαν. Με λειτουργία μίας εβδομάδας θα παράξει έργο 20.000 ετών σε επίπεδο ανθρώπινης διάνοιας, και το ίδιο θα κάνει κάθε επόμενη εβδομάδα. Πώς μπορούμε να καταλάβουμε, πολύ δε περισσότερο να περιορίσουμε, έναν εγκέφαλο που κάνει τέτοια πρόοδο;
Για να πω την αλήθεια, είναι επίσης ανησυχητικό να φανταστούμε το καλύτερο δυνατό σενάριο. Φανταστείτε να βρούμε ένα σχέδιο υπερεφυούς τεχνητής νοημοσύνης που δεν έχει θέματα ασφάλειας. Θα έχουμε βρει το τέλειο σχέδιο για πρώτη φορά. Θα είναι σαν να μας έχει δοθεί ένα μαντείο που λειτουργεί ακριβώς όπως πρέπει. Αυτή θα ήταν η τέλεια μηχανή εξοικονόμησης έργου. Θα σχεδιάσει τη μηχανή που θα κατασκευάσει τη μηχανή που θα κάνει κάθε σωματική εργασία, τροφοδοτούμενη από τον ήλιο, με μόνο κόστος αυτό των πρώτων υλών. Έτσι μιλάμε για το τέλος της ανθρώπινης αγγαρείας. Επίσης μιλάμε για το τέλος της περισσότερης διανοητικής εργασίας.
Τι θα κάνουν οι πίθηκοι όπως εμείς σε αυτή την περίπτωση; Θα έχουμε χρόνο να παίζουμε φρίσμπι και να κάνουμε μασάζ ο ένας στον άλλον. Προσθέστε λίγο LSD και κάποιες αμφίβολες επιλογές ένδυσης, κι όλος ο κόσμος θα μοιάζει με φεστιβάλ Burning Man.
Μπορεί βέβαια να ακούγεται αρκετά καλό, αλλά αναρωτηθείτε τι θα συνέβαινε με την τωρινή οικονομική και πολιτική κατάσταση; Μοιάζει πιθανό ότι θα βιώσουμε ένα επίπεδο ανισότητας πλούτου και ανεργίας που δεν έχουμε ξαναδεί. Αν απουσιάσει η θέληση να βάλουμε άμεσα αυτόν τον πλούτο στην υπηρεσία όλης της ανθρωπότητας, ελάχιστοι πολυεκατομμυριούχοι θα κοσμούν τα εξώφυλλα των οικονομικών περιοδικών, ενώ ο υπόλοιπος κόσμος θα είναι ελεύθερος να λιμοκτονήσει.
Και τι θα κάνουν οι Ρώσοι ή οι Κινέζοι αν μάθουν ότι μια εταιρεία στη Σίλικον Βάλεϊ πρόκειται να κυκλοφορήσει μια υπερευφυή τεχνητή νοημοσύνη; Αυτή η μηχανή θα μπορούσε να κηρύξει πόλεμο, είτε συμβατικό είτε σε επίπεδο υπολογιστών, με ισχύ άνευ προηγουμένου. Είναι ένα σενάριο όπου κερδίζει μόνο ένας. Όταν προηγείσαι εδώ έξι μήνες από τον ανταγωνισμό, είναι σαν να είσαι 500.000 χρόνια μπροστά κατά το ελάχιστο. Άρα φαίνεται ότι ακόμη και απλές φήμες για κάτι τόσο επαναστατικό θα έκανε το είδος μας να τρελαθεί.
Ένα από τα πιο τρομακτικά πράγματα, κατά την άποψή μου, αυτή τη στιγμή, είναι αυτά που λένε οι ερευνητές της τεχνητής νοημοσύνης όταν θέλουν να μας καθησυχάσουν. Κι ο πιο κοινός λόγος που προβάλλουν για να μην ανησυχούμε είναι ο χρόνος. Αυτό είναι πολύ μακριά, δεν το βλέπετε; Είναι περίπου 50 ή 100 χρόνια μετά. Ένας ερευνητής έχει πει, «Ανησυχώντας για ασφάλεια στην τεχνητή νοημοσύνη είναι σαν να ανησυχούμε για υπερπληθυσμό στον Άρη». Αυτό είναι η έκδοση της Σίλικον Βάλεϊ του «μην ζαλίζεις το όμορφο κεφαλάκι σου».
Κανείς δεν φαίνεται να βλέπει ότι η αναφορά στον χρονικό ορίζοντα είναι τελείως ανακόλουθη. Αν η ευφυΐα είναι απλώς θέμα επεξεργασίας της πληροφορίας, και συνεχίζουμε να βελτιώνουμε τις μηχανές μας, σίγουρα θα δημιουργήσουμε κάποια μορφή υπερευφυΐας. Και δεν ξέρουμε πόσο χρόνο θα μας πάρει να δημιουργήσουμε τις συνθήκες ώστε να το κάνουμε με ασφάλεια. Να το πω πάλι. Δεν έχουμε ιδέα πόσο χρόνο θα μας πάρει να δημιουργήσουμε τις συνθήκες ώστε να το κάνουμε με ασφάλεια.
Κι αν δεν το έχετε προσέξει, τα 50 χρόνια δεν είναι αυτό που ήταν. Αυτό είναι 50 χρόνια σε μήνες. Τόσον καιρό έχουμε το iPhone. Τόσον καιρό παίζονται οι Σίμπσονς στην τηλεόραση. Τα 50 χρόνια δεν είναι τόσο πολλά για μια από τις μεγαλύτερες προκλήσεις που θα αντιμετωπίσει το είδος μας. Και πάλι - αδυνατούμε να επιδείξουμε κατάλληλη συναισθηματική απόκριση σε κάτι που έχουμε κάθε λόγο να πιστεύουμε ότι θα έρθει.
Ο επιστήμων υπολογιστών Στιούαρτ Ράσελ έχει μια ωραία αναλογία γι' αυτό. Είπε, φανταστείτε ότι λάβαμε μήνυμα από εξωγήινο πολιτισμό, που έλεγε: «Άνθρωποι της Γης, θα φτάσουμε στον πλανήτη σας σε 50 χρόνια. Ετοιμαστείτε». Και τώρα απλώς μετράμε αντίστροφα τον χρόνο μέχρι να έρθει το διαστημόπλοιο. Θα το νιώθαμε ως κάτι λίγο πιο επιτακτικό από ό,τι τώρα.
Μας λένε επίσης να μην ανησυχούμε, γιατί οι μηχανές δεν μπορούν παρά να έχουν τις δικές μας αξίες, καθώς κυριολεκτικά είναι προέκταση των εαυτών μας. Θα συνδεθούν στον εγκέφαλό μας και βασικά θα γίνουμε το μεταιχμιακό τους σύστημα. Σκεφτείτε για ένα λεπτό ότι ο ασφαλέστερος και ο μόνος συνετός δρόμος προς τα εμπρός που προτείνεται, είναι να εμφυτεύσουμε αυτή την τεχνολογία απευθείας στον εγκέφαλό μας. Βέβαια, μπορεί να είναι ο ασφαλέστερος και ο μόνος συνετός δρόμος, αλλά συνήθως οι ανησυχίες για την ασφάλεια μιας τεχνολογίας πρέπει να έχουν επιλυθεί πριν την εμφυτεύσουμε στο κεφάλι μας.
Το βαθύτερο πρόβλημα είναι ότι φαίνεται ευκολότερο να φτάξεις ένα μεμονωμένο σύστημα τεχνητής νοημοσύνης, από το να φτιάξεις ένα σύστημα και να έχεις και επαρκή νευροεπιστήμη που να επιτρέπει την εύκολη ενσωμάτωσή του στον εγκέφαλό μας. Και δεδομένου ότι οι κυβερνήσεις και εταιρείες που θα το κάνουν είναι πιθανόν θα θεωρούν ότι ανταγωνίζονται όλους τους άλλους, εφόσον όποιος το κάνει πρώτος θα κυριαρχήσει στον κόσμο, με την προϋπόθεση ότι δεν θα τον καταστρέψει αμέσως μετά, τότε μοιάζει πιθανό ότι θα γίνει πρώτο οτιδήποτε γίνεται πιο εύκολα.
Δυστυχώς δεν έχω κάποια λύση γι' αυτό το πρόβλημα, εκτός από το να συστήσω να το ξανασκεφτούμε οι περισσότεροι. Νομίζω ότι χρειαζόμαστε κάτι σαν το Πρόγραμμα Μανχάταν προσαρμοσμένο για την τεχνητή νοημοσύνη. Όχι για να την φτιάξουμε, γιατί μάλλον είναι αναπόφευκτο, αλλά να καταλάβουμε πώς να αποφύγουμε έναν αγώνα εξοπλισμών και να την φτιάξουμε έτσι που να συμβαδίζει με τα συμφέροντά μας. Όταν μιλάτε για υπερευφυή τεχνητή νοημοσύνη που μπορεί να τροποποιήσει τον εαυτό της, φαίνεται ότι έχουμε μόνο μία πιθανότητα να ορίσουμε τις σωστές προϋποθέσεις, και ακόμη και τότε θα χρειαστεί να απορροφήσουμε τις οικονομικές και πολιτικές συνέπειες της σωστής εφαρμογής.
Αλλά μόλις παραδεχθούμε ότι η επεξεργασία πληροφοριών είναι η πηγή της ευφυΐας, ότι η βάση της ευφυΐας είναι κάποιο κατάλληλο υπολογιστικό σύστημα, και αποδεχθούμε να βελτιώνουμε αυτά τα συστήματα συνεχώς, και παραδεχθούμε ότι ο γνωστικός ορίζοντας μάλλον ξεπερνά κατά πολύ όσα ήδη γνωρίζουμε, τότε πρέπει να παραδεχθούμε ότι βρισκόμαστε σε διαδικασία κατασκευής κάποιου είδους θεού. Τώρα είναι η σωστή ώρα να εξασφαλίσουμε ότι είναι ένας θεός με τον οποίον μπορούμε να ζήσουμε.
TEDx - Samuel Benjamin Harris is an American author, philosopher, neuroscientist, blogger and podcast host
Translated by Lucas Kaimaras, Reviewed by Nikolaos Benias
https://braining.gr
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου