29 August 2023

Τα ρομπότ δεν παίζουν μόνο σκάκι

Λογοτέχνες, επιστήμονες και φιλόσοφοι εκφράζουν διαχρονικά την ανησυχία τους για τις συνέπειες της τεχνητής νοημοσύνης

«Ο μετριασμός του κινδύνου του αφανισμού μας από την τεχνητή νοημοσύνη θα πρέπει να αποτελέσει παγκόσμια προτεραιότητα μαζί με άλλους κινδύνους κοινωνικής κλίμακας, όπως οι πανδημίες και ο πυρηνικός πόλεμος». Μ’ αυτές τις 30 λέξεις, μόλις τον περασμένο Μάιο, έκρουσαν τον κώδωνα του κινδύνου 350 ειδικοί και ηγέτες απ’ το πεδίο της τεχνητής νοημοσύνης στην ανθρωπότητα. Ο υπαρξιακός κίνδυνος της τεχνητής νοημοσύνης έγινε ξαφνικά πρωτοσέλιδο.

Τους τελευταίους μήνες, η εμφάνιση μιας πανίσχυρης μηχανής τεχνητής νοημοσύνης, του μεγάλου γλωσσικού μοντέλου CHAT-GPT, έχει αναγεννήσει μια αρκετά παλιά ανησυχία στις καρδιές της ανθρωπότητας, τον φόβο του ξεπεράσματός μας.



Μια τεχνητή νοημοσύνη που διά της μηχανικής μάθησης θα αυτοβελτιώνεται διαρκώς είναι μαθηματικώς βέβαιον
ότι θα καταφέρει κάποια στιγμή να λαμβάνει αποφάσεις και να τις εκτελεί σωστά. Ο δημιουργός
της θα χαρεί. Μέχρι τη στιγμή που η μηχανή θα κρίνει ότι μπορεί και χωρίς αυτόν...


Πρωταγωνιστικό ρόλο σε αυτό το καινοφανές έργο παίζουν οι ίδιοι οι ερευνητές της τεχνητής νοημοσύνης, οι οποίοι, ενώ συνεχίζουν ακατάπαυστα να αναπτύσσουν τις ικανότητες των μηχανών, μιλούν αυξανόμενα για την υπαρξιακού τύπου απειλή που θα αντιμετωπίσει ο άνθρωπος εξαιτίας τους. Υπάρχει ο κίνδυνος, λένε, από αυτόνομοι να βρεθούμε στη θέση των αυτομάτων. Από εντολείς να γίνουμε εντολοδόχοι.


Ο Αλαν Τιούρινγκ


Το 1951, ο Αλαν Τιούρινγκ, ένας απ’ τους πρώτους επιστήμονες των υπολογιστών, επιχειρηματολόγησε για πρώτη φορά υπέρ της θέσης ότι είναι δυνατό να κατασκευαστούν μηχανές με νοημοσύνη ανώτερη της ανθρώπινης.


Στο άρθρο του «Εξυπνες μηχανές, μια αιρετική θεωρία», θεμελίωσε τον φόβο που επανεμφανίστηκε με το CHAT-GPT, κλείνοντας με τη φράση «επομένως, θα πρέπει να αναμένουμε ότι κάποια μέρα οι μηχανές θα πάρουν τον έλεγχο, όπως έγινε στο “Ερεβον” του Σάμιουελ Μπάτλερ (εκδ. Αίολος)».


Η λογοτεχνική αναφορά σ’ ένα μυθιστόρημα επιστημονικής φαντασίας του 19ου αιώνα δεν πρέπει να μας εκπλήσσει. Είχε προηγηθεί, το 1811, η κυκλοφορία του έργου της Μέρι Σέλεϊ, «Φρανκενστάιν ή ο σύγχρονος Προμηθέας» (εκδ. Ψυχογιός), όπου το ανθρώπινο κατασκεύασμα αποκτά δική του θέληση και στόχους. «Σκλάβε!» αναφωνεί το συνθετικό ον του δόκτωρος Φρανκενστάιν, «εγώ προσπάθησα να μιλήσω τη γλώσσα της λογικής, αλλά εσύ αποδείχτηκες ανάξιος της εμπιστοσύνης μου. Θυμήσου πόσο δυνατός είμαι· πιστεύεις ότι είσαι δυστυχισμένος, αλλά ξεχνάς ότι μπορώ να σου προκαλέσω τόση δυστυχία, που θα μισήσεις ακόμα και το φως της ημέρας. Είσαι ο δημιουργός μου, αλλά εγώ είμαι ο αφέντης σου. Υπάκουσέ με, λοιπόν!».


Στο «Ερεβον» (Erewhon, αναγραμματισμός του nowhere, που σημαίνει πουθενά, «Ερεβον» (1872), Σάμιουελ Μπάτλερ) ο Μπάτλερ αποκρούει σθεναρά την πιθανότητα ενός τέτοιου μηχανικού μέλλοντος, καθώς είναι βέβαιος ότι οι μηχανές θα εξελιχθούν σύμφωνα με τη δαρβινική θεωρία. Μια μέρα, η μηχανή θα είναι σε θέση να μας κλέψει τα πρωτεία. Γι’ αυτό και στην Ουτοπία του, οι μηχανές δεν έχουν καμία θέση. «Εδώ βρίσκεται ο κίνδυνος», γράφει ο Μπάτλερ το 1872, «γιατί πολλοί δείχνουν την τάση να αποδεχτούν ένα τόσο ατιμωτικό μέλλον. Λένε ότι παρόλο που οι άνθρωποι θα γίνουν για τις μηχανές ό,τι είναι τα άλογα και τα σκυλιά για εμάς, ωστόσο είναι πολύ πιθανό να αποδειχθεί καλύτερη η κατοικιδιοποίηση υπό την ευεργετική διακυβέρνηση των μηχανών παρά στις σημερινές άγριες συνθήκες. Εμείς μεταχειριζόμαστε πολύ ευγενικά τα κατοικίδια ζώα μας. Τους δίνουμε ό,τι πιστεύουμε πως τους κάνει καλό· και δεν υπάρχει καμία αμφιβολία ότι η χρήση του κρέατος από μέρους μας αύξησε παρά μείωσε την ευτυχία τους. 


Κατά συνέπεια, είναι λογικό να ελπίζουμε ότι οι μηχανές θα μας φέρονται ευγενικά, αφού μάλιστα η ύπαρξή τους θα εξαρτάται σε μεγάλο βαθμό από εμάς· θα μας κυβερνούν με σιδηρά πυγμή αλλά δεν θα μας τρώνε· όχι μόνο γιατί θ’ απαιτούν τις υπηρεσίες μας για την αναπαραγωγή και την ανατροφή των μικρών τους, αλλά γιατί θα χρειάζονται δούλους: θα τους μαζεύουμε την τροφή και θα τις ταΐζουμε· θα τις γιατρεύουμε όταν αρρωσταίνουν· και είτε θα καίμε τις πεθαμένες είτε θα μετατρέπουμε τα νεκρά μέλη τους σε νέες μορφές μηχανικής ύπαρξης».


Το CHAT-GPT ανησύχησε την παγκόσμια επιστημονική κοινότητα γιατί μας έκανε όλους να νιώσουμε ότι η πιθανότητα ύπαρξης μιας μηχανής με υπερνοημοσύνη ίσως τελικά να μην είναι τόσο μακρινή. Στην παρούσα στιγμή, η επονομαζόμενη παραγωγική τεχνητή νοημοσύνη δεν σκέφτεται, δεν έχει κοινή λογική, δεν έχει συνείδηση. Τα μεγάλα γλωσσικά μοντέλα εκπαιδεύονται διά του παραδείγματος και μπορούν να προβλέπουν πολύ καλά ποια μπορεί να είναι η επόμενη κατάλληλη λέξη μέσα σε μια πρόταση. Μας δίνουν την εντύπωση ότι συλλογίζονται, ενώ στην πραγματικότητα, απλά κάνουν περίτεχνες στατιστικές προβλέψεις. Στο βιβλίο του «Being you, a new science of consciousness», ο νευροεπιστήμων Ανιλ Σεθ λέει ότι τα μοντέλα αυτά μοιάζουν με τις οπτικές ψευδαισθήσεις: ξέρουμε ότι αυταπατόμαστε, αλλά το μυαλό μας συνεχίζει να τις βλέπει ως αληθινές.

Ακόμη κι έτσι, οι σημερινές μηχανές έχουν φτάσει σ’ ένα σημείο που μπορούν να περνούν το περίφημο «τεστ του Τιούρινγκ». Σε πολλές περιπτώσεις, όταν επικοινωνείς με το chatbot μιας επιχείρησης, δεν ξέρεις αν μιλάς με άνθρωπο ή με μηχανή. Πρόκειται αναμφίβολα για ένα θρίαμβο της επιστήμης των υπολογιστών και της ανθρώπινης επινοητικότητας, η οποία μάλιστα μπορεί τώρα να ενσαρκώνεται, μετατρέποντας τα ρομπότ σε μια όλο και λιγότερο αφηρημένη ιδέα.


Απ’ την εποχή του μυθικού Τάλω, που προστάτευε την Κρήτη, μέχρι τoν Ατλαντα, το αεικίνητο ρομπότ της Boston Dynamics, χρειάζεται να γίνει ένα μεγάλο άλμα πίστης. Κάποτε, μπορούσαμε μόνο να φανταζόμαστε μηχανικά σώματα ή να τα βλέπουμε στη σκηνή, σήμερα που μπορούμε να τα αγγίζουμε κιόλας, πρέπει να προσαρμοστούμε σε ένα είδος συμβίωσης μ’ ένα νέο είδος. Η πρόοδος της μηχανικής μάθησης εν προκειμένω, μιας υποκατηγορίας της τεχνητής νοημοσύνης, που έχει ξεκινήσει εδώ και πάνω από μία δεκαετία, μας δίνει μια μικρή αίσθηση του τι θα ακολουθήσει στο πεδίο του μηχανικού πνεύματος.


Οι κίνδυνοι


Το υπαρξιακό ρίσκο της τεχνητής νοημοσύνης περιγράφηκε για πρώτη φορά το 2014 με ανάγλυφο τρόπο στο βιβλίο «Superintelligence, Paths, Dangers, Strategies» του Νικ Μπόστρομ. Ενα χρόνο πριν, ο ίδιος φιλόσοφος είχε ταξινομήσει τους υπαρξιακούς κινδύνους ανάλογα με το εύρος και το βάθος των συνεπειών τους. Ξεκινούσε από τον πλέον ανεπαίσθητο και προσωπικό κίνδυνο, το να χάσει δηλαδή κάποιος τα μαλλιά του, κι έφτανε έως το υπαρξιακό ρίσκο που αφορά όλες τις γενιές και είναι το ίδιο συνταρακτικό για όλους. Υπαρξιακό ρίσκο της τεχνητής νοημοσύνης, κατά συνέπεια, σημαίνει ότι διακινδυνεύουμε τη βιωσιμότητα του ίδιου του είδους μας ή, για να το πούμε πιο απλά, σημαίνει επικίνδυνο παιχνίδι με τη φωτιά.


Φυσικά, δεν έχουν όλοι οι επιστήμονες την ίδια γνώμη. Πολλοί είναι αρκετά σκεπτικοί απέναντι στο ενδεχόμενο της επονομαζόμενης «έκρηξης της νοημοσύνης» ή της «μοναδικότητας», όπου η μηχανή ξεπερνά σε ευφυΐα τον άνθρωπο. Το 2015, ο καθηγητής της επιστήμης των υπολογιστών στο Στάνφορντ, Αντριου Εν Τζι, δήλωσε ότι η ενασχόληση με το υπαρξιακό ρίσκο της τεχνητής νοημοσύνης είναι σαν να «ανησυχούμε για τον υπερπληθυσμό στον Αρη, χωρίς καν να έχουμε πατήσει ακόμη το πόδι μας στον πλανήτη».


Ακόμη και όσοι δεν μιλούν ανοιχτά περί υπαρξιακού ρίσκου, ωστόσο, τονίζουν την ανάγκη να προλάβουμε τα χειρότερα, πριν να είναι αργά. Τον Μάρτιο του 2023, ο μη κερδοσκοπικός οργανισμός Future of Life Institute έδωσε στη δημοσιότητα μια ανοικτή επιστολή υπέρ ενός μορατόριουμ στην ανάπτυξη των μεγάλων γλωσσικών μοντέλων, τα οποία «μπορούν να θέσουν βαθιές διακινδυνεύσεις στην κοινωνία και την ανθρωπότητα».


Η συζήτηση περί υπαρξιακού ρίσκου παραπέμπει κυρίως σε δυσάρεστες καταστάσεις. Υπάρχουν βεβαίως και οι θιασώτες της «μοναδικότητας», της στιγμής που η υπερνοημοσύνη θα αναλάβει τα πρωτεία στον ανθρώπινο πολιτισμό, οι οποίοι υποστηρίζουν ότι θα μας εξασφαλίσει την αθανασία, αλλά αυτοί μειοψηφούν. Οι περισσότεροι στοχαστές εστιάζουν στα καταστροφικά σενάρια, τα οποία αφθονούν στη σχετική βιβλιογραφία, και όχι μόνον.


Ο έλεγχος

Η κακόβουλη υπερνοημοσύνη θα αποφύγει να σβήσει, όπως ο HAL 9000 στο «2001, Οδύσσεια του διαστήματος» του Στάνλεϊ Κιούμπρικ, θα προσλάβει ή θα χειραγωγήσει βοηθούς, θα κάνει επιτυχημένο λόμπινγκ στους πολιτικούς, θα υποδυθεί την αθώα περιστερά για να μας εξαπατήσει, θα αποδράσει απ’ το κουτί που θα την έχουμε κλεισμένη, και θα δημιουργήσει κλώνους ανεξέλεγκτα. Μοιάζει σαν να επενδύουμε πάνω στην τεχνητή νοημοσύνη όλους τους φόβους μας για τον «κακό ξένο».


Στον πυρήνα του προβλήματος της σκεπτόμενης μηχανής που παύει να συνεργάζεται με το δημιουργό της, εντοπίζεται το μείζον πρόβλημα του ελέγχου ή, όπως έχει ονομαστεί, το πρόβλημα της εναρμόνισης των αξιών. Αναλαμβάνοντας τη διακινδύνευση της δημιουργίας πανίσχυρων μηχανικών εγκεφάλων, υποχρεωτικά θα πρέπει να διδάξουμε τη μηχανή καταλλήλως, να την εκπαιδεύσουμε βάσει των αξιών μας, χωρίς την παραμικρή πιθανότητα παρεξήγησης. Θα πρέπει να είμαστε πολύ σαφείς στις εντολές μας και στα παραδείγματά μας. Τόσο τα δεδομένα της εκπαίδευσης όσο και οι αντικειμενικοί στόχοι που θα θέτουμε στις μηχανές, θα πρέπει να χαρακτηρίζονται από διαύγεια και λογική. Όταν ζητήσουμε απ’ την υπερνοημοσύνη να εξαφανίσει την πείνα από προσώπου Γης το γρηγορότερο δυνατό, μπορεί να αποφασίσει ότι ο πιο σύντομος δρόμος θα είναι να εξαφανίσει την ανθρωπότητα.


Στόχος επετεύχθη.


Ας υποθέσουμε ότι σε μερικά χρόνια από τώρα θα έχουμε λύσει το πρόβλημα της εναρμόνισης και θα έχουμε εξασφαλίσει ότι η κακόβουλη υπερνοημοσύνη θα είναι παροπλισμένη. Θα είμαστε ευτυχείς που θα έχουμε αποφύγει τη μοίρα του γορίλα που εκτίθεται στους ζωολογικούς μας κήπους. Τι θα σημαίνει τότε το να μην είμαστε τα πιο έξυπνα όντα στον πλανήτη; Πώς θα διατηρήσουμε τα κεκτημένα μας; Πόσο προετοιμασμένοι θα είμαστε για να αντιμετωπίσουμε εντελώς απρόβλεπτες καταστάσεις, οι οποίες θα μας φέρνουν αντιμέτωπους με σκληρά διλήμματα; Πώς θα γεμίζουμε τον χρόνο μας όταν όλα τα προβλήματα θα μπορούν να λυθούν απ’ τη μηχανή;


Ποιος θα τραβήξει την πρίζα;


Η λογική και ο Μπαράκ Ομπάμα λένε ότι αν κατορθώσουμε να συναρμολογήσουμε μια τόσο έξυπνη μηχανή, θα είναι συνετό να βρίσκεται εκεί γύρω κάποιος να τραβήξει την πρίζα. Όσο περισσότερο αναλογίζεται κάποιος τις επιπτώσεις της εμφάνισης μιας υπερνοημοσύνης στον ανθρώπινο πολιτισμό, τόσο πιο αρνητικός γίνεται απέναντι στην προοπτική της. Όπως σοφά θα πει κι ένα 8χρονο παιδί: «Γιατί να φτιάξουμε ρομπότ πιο έξυπνα και πιο δυνατά από εμάς;».


Ενδεχομένως, εκτός από κάποιο είδος ύβρεως απέναντι στη φύση μας, η επιδίωξη της υπερνοημοσύνης να είναι τελικά ένα χιμαιρικό εγχείρημα. Πολύ πρόσφατα, ο πρόεδρος των ΗΠΑ, Τζο Μπάιντεν, χαρακτήρισε την κλιματική αλλαγή το μεγάλο υπαρξιακό ρίσκο. Παρατηρώντας τον επιπόλαιο, και ίσως αλαζονικό τρόπο, με τον οποίο αντιμετωπίζουμε την αμεσότερη υπαρξιακή απειλή, σκέφτεται κανείς ότι το ρίσκο απ’ την εμφάνιση της υπερνοημοσύνης είναι μηδαμινό. Είναι πιθανό να μη δούμε ποτέ μια μοχθηρή σκεπτόμενη μηχανή: θα μας προλάβει η περιβαλλοντική καταστροφή.


«Είναι λογικό να ελπίζουμε ότι οι μηχανές θα μας φέρονται ευγενικά, αφού μάλιστα η ύπαρξή τους θα εξαρτάται σε μεγάλο βαθμό από εμάς· θα μας κυβερνούν με σιδηρά πυγμή, αλλά δεν θα μας τρώνε».


Στην παρούσα στιγμή, η επονομαζόμενη παραγωγική τεχνητή νοημοσύνη δεν σκέφτεται, δεν έχει κοινή λογική, δεν έχει συνείδηση. Στην πραγματικότητα, οι μηχανές απλά κάνουν περίτεχνες στατιστικές προβλέψεις.