Τους τρόμαξε μία μεγάλη ανακάλυψη!
Συγκερασμό επιστημονικής φαντασίας και επιχειρηματικού θρίλερ μοιάζουν να στοιχειοθετούν όσα βλέπουν το φως της δημοσιότητας τις τελευταίες ημέρες σχετικά με το τι ακριβώς συνέβη στους κόλπους της πρωτοπόρου εταιρείας τεχνητής νοημοσύνης OpenAI. Και ειδικότερα ως προς το τι ακριβώς οδήγησε στην απόλυση του επικεφαλής της, Σαμ Αλτμαν, ποιο ήταν το πρόβλημα αλλά και πώς αποφασίστηκε η επεισοδιακή ανάκληση της απόλυσης τέσσερις ημέρες αργότερα. Στο σενάριο υπάρχει αφενός ένα στέλεχος, ένας χαρισματικός και φιλόδοξος γκουρού της πλέον εξελιγμένης τεχνολογίας τεχνητής νοημοσύνης, ο οποίος κινείται ενδεχομένως τολμηρά και αφετέρου υπάρχει το διοικητικό συμβούλιο της εταιρείας που ανησυχεί και προσπαθεί να τηρήσει κανόνες δεοντολογίας για να αποτρέψει τυχόν ολέθριες συνέπειες. Πιέζεται, όμως, ασφυκτικά από τους υποστηρικτές του τολμηρού στελέχους και στο τέλος ενδίδει.
Κάτι τέτοιο φαίνεται να συνέβη στην OpenAI όπως προκύπτει από αποκλειστικό ρεπορτάζ του Reuters, σύμφωνα με το οποίο την απόλυση του Αλτμαν προκάλεσε επιστολή μερίδας των ερευνητών που εργάζονται στην OpenAI. Απευθυνόμενοι στο Δ.Σ. της εταιρείας οι ερευνητές εξέφραζαν την ανησυχία τους για μια πανίσχυρη ανακάλυψη της τεχνητής νοημοσύνης που θα απειλήσει την ανθρωπότητα. Η προειδοποίηση στάθηκε καθοριστική αλλά οι πηγές της εταιρείας που ανέφεραν εμπιστευτικά τις πληροφορίες τόνισαν πως η επίμαχη επιστολή προσετέθη σε έναν μακρύ κατάλογο από προβληματισμούς και ανησυχίες των μελών του Δ.Σ. για τον Αλτμαν.
Ο ίδιος ο Αλτμαν, άλλωστε, είχε μόλις την περασμένη εβδομάδα δηλώσει σε συνέδριο στο Σαν Φρανσίσκο ότι πίστευε πως βρίσκεται προ των πυλών μεγάλης ανακάλυψης. Ολα αυτά σε συνδυασμό οδήγησαν στην απόλυση του Αλτμαν. Ανάμεσα στα άλλα ζητήματα που είχαν προκαλέσει έντονο προβληματισμό στα μέλη του Δ.Σ. ήταν και η ανησυχία τους για ενδεχόμενη πρόωρη εμπορευματοποίηση των ανακαλύψεων της τεχνητής νοημοσύνης προτού μελετηθούν και κατανοηθούν πλήρως οι πιθανές συνέπειές τους.
Όπως τονίζει το Reuters, μετά την επαφή που είχε με την OpenAI, η εταιρεία παραδέχθηκε σε εσωτερικό μήνυμα προς το προσωπικό της ότι αιτία του προβληματισμού ήταν ένα σχέδιο με ονομασία Q* μαζί με την επιστολή των στελεχών προς το Δ.Σ. και αυτά προκάλεσαν όσα συνέβησαν τις τελευταίες ημέρες. Εκπρόσωπος της εταιρείας ανέφερε επίσης ότι το μήνυμα το είχε στείλει η Μίρα Μουράτι, επί χρόνια στέλεχος της OpenAI, με αποτέλεσμα να προκαλέσει συναγερμό στο προσωπικό της ευαισθητοποιώντας τα στελέχη σε ορισμένα δημοσιεύματα του Τύπου.
Ορισμένοι από τους υπαλλήλους της OpenAI πιστεύουν πως το Q*, που προφέρεται Κιου-σταρ, δηλαδή Κιου – αστέρι, μπορεί να αποτελεί το μέγα άλμα στην αναζήτηση της «γενικής τεχνητής νοημοσύνης», μια θεαματική πρόοδο δηλαδή στα αυτόνομα συστήματα που θα υπερβαίνουν τις δυνατότητες των ανθρώπων σχεδόν σε όλο εύρος της οικονομικής δραστηριότητας. Πιο συγκεκριμένα, με τις τεράστιες δυνατότητες υπολογιστικής, το νέο μοντέλο θα είναι σε θέση να επιλύσει συγκεκριμένα μαθηματικά προβλήματα.
Αυτό εκτιμούν τουλάχιστον οι πηγές της OpenAI που μίλησαν στο Reuters σε καθεστώς ανωνυμίας. Διευκρίνισαν ότι έως τώρα το σχέδιο έχει επιλύσει μόνον μαθηματικά επιπέδου λυκείου αλλά έχει εμπνεύσει ιδιαίτερη αισιοδοξία στους ερευνητές και οπαδούς της τεχνητής νοημοσύνης σε ό,τι αφορά το μέλλον και τις δυνατότητές της να επιτύχει. Σημειωτέον ότι οι ερευνητές θεωρούν πως τα μαθηματικά θα είναι το σύνορο που θα περάσει η τεχνητή νοημοσύνη όταν θα σημειώσει ουσιώδη πρόοδο.
Μέχρι στιγμής η τεχνητή νοημοσύνη είναι αποτελεσματική στη συγγραφή και στη μετάφραση κειμένων σε διαφορετικές γλώσσες καθώς με στατιστικές μεθόδους εντοπίζει την επόμενη λέξη, ενώ συχνά ποικίλλουν οι απαντήσεις στην ίδια ερώτηση. Αν, όμως, έχει την ικανότητα να απαντά σε μαθηματικές ερωτήσεις, που επιδέχονται μία και μόνον μία σωστή απάντηση, τότε η τεχνητή νοημοσύνη θα έχει μεγαλύτερες νοητικές ικανότητες και θα προσομοιάζει στην ανθρώπινη νοημοσύνη. Και βέβαια αν επιτευχθεί αυτό θα τεθεί στο μικροσκόπιο των νέων επιστημονικών ερευνών.
Ως εκ τούτου στην επιστολή τους προς το Δ.Σ., οι ερευνητές της OpenAI έθεσαν θέμα ισχύος της τεχνητής νοημοσύνης και ενδεχόμενου κινδύνου. Οι ίδιες πηγές που μίλησαν στο Reuters δεν ανέφεραν, πάντως, πιο συγκεκριμένα τι είδους ζητήματα ασφάλειας παραθέτουν οι ερευνητές στην επιστολή τους. Επί χρόνια βρίσκεται σε εξέλιξη ένας δημόσιος διάλογος ανάμεσα στην επιστημονική κοινότητα σχετικά με τους κινδύνους που ενδεχομένως εγκυμονούν οι ιδιαίτερα ευφυείς μηχανές όπως, για παράδειγμα, αν αποφάσιζαν κάποια στιγμή ότι η καταστροφή της ανθρωπότητας θα εξυπηρετούσε τα συμφέροντά τους.