Τον Ιούλιο του 2015, ενώ η Ευρώπη ήταν απασχολημένη με την κρημνοβασία της ελληνικής κυβέρνησης στο χείλος του Grexit, μια μικρή ομάδα διακεκριμένων νεότερων στελεχών της ψηφιακής τεχνολογίας δειπνούσε στο ξενοδοχείο Rosewood Sand Hill του Μένλο Παρκ της Καλιφόρνιας, στην καρδιά της Σίλικον Βάλεϊ. Παρόντες ήταν, μεταξύ άλλων, ο 26χρονος προγραμματιστής Γκρεγκ Μπρόκμαν, ο 30χρονος ειδικός επί της μηχανικής μάθησης Ιλια Σουτσκέβερ, ο 30χρονος επιχειρηματίας Σαμ Ολτμαν – και ο Ιλον Μασκ. Με πρόσχημα το φαγητό, η συνάντηση είχε ως αντικείμενο τη διαμόρφωση ενός οργανωτικού σχήματος που θα προωθούσε ριζικές καινοτομίες στον χώρο της τεχνητής νοημοσύνης. Τον Δεκέμβριο του 2015 ανακοινώθηκε η ίδρυση της Open AI, ενός μη κερδοσκοπικού ιδρύματος έρευνας με στόχο «τα οφέλη για όλη την ανθρωπότητα». Πέρασαν επτά χρόνια, ο Μασκ αποχώρησε νωρίς για να ασχοληθεί με το Twitter και τον Νοέμβριο του 2022 η εταιρεία παρουσίασε το ChatGPT, αιφνιδιάζοντας την παγκόσμια κοινή γνώμη. Εντελώς απροσδόκητα, η συζήτηση για την τεχνητή νοημοσύνη, τις εφαρμογές, τις αρετές και τους κινδύνους της μετακινήθηκε από το εύρος του κοντινού μέλλοντος στο απτό φάσμα του παρόντος.
Χωρίς να γίνει άμεσα αντιληπτό, το καλοκαίρι του 2022 ξεκίνησε ένας αγώνας δρόμου. Μια νεοφυής εταιρεία του Λονδίνου, η Stability AI, γοήτευσε εκατομμύρια χρήστες με το Stable Diffusion, ένα πρόγραμμα παραγωγής εικόνων σύμφωνα με την κειμενική περιγραφή του χρήστη. Το βήμα ήταν αναπάντεχο τόσο για το κοινό όσο και για τον υπόλοιπο επιχειρηματικό κόσμο, ο οποίος προωθούσε σταθερά την έρευνα, επιλέγοντας όμως να παραμείνει επιφυλακτικός ως προς την ελεύθερη διάθεση παρόμοιων εργαλείων. Τον Σεπτέμβριο του ίδιου έτους η Open AI έσπευσε να απελευθερώσει το δικό της αντίστοιχο, το DALL·E 2 (όνομα προορισμένο να ανακαλεί στη μνήμη το ρομποτάκι WALL·E της ομώνυμης ταινίας της Pixar και τον Σαλβαντόρ Νταλί), για να ακολουθήσει στα τέλη Νοεμβρίου το βαρύ πυροβολικό – το ChatGPT. Με την πρόσφατη έλευση του Bard της Google ολοκληρώθηκε ένας πρώτος εντυπωσιακός κύκλος εξοικείωσής μας με την πλέον προχωρημένη σήμερα μορφή τεχνητής νοημοσύνης – τα λεγόμενα «μεγάλα γλωσσικά μοντέλα» (large language models ή LLM). Πρόκειται για μια μορφή μαθηματικού συστήματος που ορίζεται ως «νευρωνικό δίκτυο»: ένα πρόγραμμα που αναλύει τρισεκατομμύρια δεδομένων εντοπίζοντας επαναλαμβανόμενα μοτίβα με ενσωματωμένες προβλέψεις ενίσχυσης των διαδικασιών που οδηγούν σε ορθά εξαγόμενα και παράλληλης αποδυνάμωσης των αναποτελεσματικών ακολουθιών. Χάρη στη θετική αυτή ανάδραση και στην απειράριθμη διαδοχή περιπτώσεων δοκιμής και πλάνης, το σύστημα διέρχεται μια καμπύλη μάθησης. Για την επίτευξή της, βέβαια, απαιτείται ασύλληπτη υπολογιστική ισχύς. Εκεί που τα ταχύτερα gaming μηχανήματα απαιτούν 16πύρηνους ή 24πύρηνους επεξεργαστές, εκείνο που είναι επιφορτισμένο με τη λειτουργία του ChatGPT χρησιμοποιεί 285.000 πυρήνες. Στην περίπτωσή του, ωστόσο, τα αποτελέσματα είναι αρκούντως εντυπωσιακά: εκλεπτυσμένος χειρισμός της γλώσσας, λογικά διατυπωμένες απαντήσεις, σύνταξη ολοκληρωμένων κειμένων έχουν οδηγήσει εκατομμύρια ανθρώπων να συνδιαλέγονται μαζί του διασκεδάζοντας με την ικανοποίηση κάθε είδους αιτημάτων, από τη συγγραφή διηγημάτων ως τη διεξαγωγή συνεντεύξεων με ιστορικά πρόσωπα.
Αγώνας ταχύτητας στο tech industry
Η έκρηξη του ενδιαφέροντος γύρω από τα chatbots χαιρετίστηκε με παρατεταμένο τρίψιμο των χεριών από τις μεγάλες κεφαλές της Σίλικον Βάλεϊ. Ο διευθύνων σύμβουλος της Microsoft, Σάτια Ναντέλα, ανακοίνωσε ότι θα επενδύσει 10 δισ. δολάρια στην Open AI, η οποία τα δέχθηκε ασμένως, αφού, σύμφωνα με όσα έλεγε στα τέλη του περασμένου Φεβρουαρίου στο «Time» o διευθύνων σύμβουλός της, Σαμ Ολτμαν, καθένα από τα εκατομμύρια ανά τον κόσμο chats στοιχίζει και μερικά σεντς στην εταιρεία – εξού και είχε ήδη μερικώς αναιρέσει την αρχική της μη κερδοσκοπική φύση. Διαισθανόμενη τον κίνδυνο της απώλειας της κυριαρχίας της στον τομέα των μηχανών αναζήτησης από μια σύμπραξη Microsoft και Open AI, η Google φρόντισε να ενσωματώσει στη δική της τη δυνατότητα χρήσης του chatbot Bard. Για να μη μείνει πίσω, ο Μαρκ Ζάκερμπεργκ δεν παρέλειψε να διακηρύξει τη φιλοδοξία της δικής του εταιρείας να «ηγηθεί στον χώρο της γενικής τεχνητής νοημοσύνης». Από την Κίνα, οι Baidu και Alibaba δήλωσαν ότι, ναι, έχουν και εκείνες τα δικά τους chatbots και είδαν τις μετοχές τους να ανεβαίνουν. Εκτιμήσεις της PricewaterhouseCoopers που είδαν το φως της δημοσιότητας τον περασμένο Φεβρουάριο κάνουν λόγο για την ανάπτυξη μιας αγοράς 15 τρισ. δολαρίων ως το 2030.
Πράγματι, οι μελλοντικές δυνητικές εφαρμογές είναι άπειρες, αν και προς το παρόν η ευρύτερη αναδυόμενη βιομηχανία εστιάζει στα αυτοκινούμενα οχήματα, στο λογισμικό αναγνώρισης προσώπου, στον σχεδιασμό φαρμάκων μέσω ανάλυσης της δομής των πρωτεϊνών και στα μοντέλα γλωσσικής αλληλεπίδρασης. Προγράμματα υποβοήθησης οδήγησης λειτουργούν ήδη στα πιο εξελιγμένα οχήματα της Tesla, συστήματα ταύτισης φωτογραφιών χρησιμοποιούνται από τις Αρχές για τον εντοπισμό υπόπτων και τεστ που έχουν γίνει στα chatbots της Open AI και της Google υποδεικνύουν ότι θα μπορούσαν να λειτουργήσουν αποτελεσματικά ως βοηθοί σε δουλειές γραφείου. Γράφοντας στους «New York Times» της 30ής Μαρτίου, ο Μπράιαν Τσεν αξιολόγησε τις επιδόσεις τους στην προετοιμασία συναντήσεων, στην τήρηση πρακτικών, στον ημερολογιακό προγραμματισμό και στον σχεδιασμό επαγγελματικών ταξιδιών με ιδιαίτερα ικανοποιητικό βαθμό. Σύμφωνα με τον Στίβεν Τζόνσον του «New York Times Magazine», το ChatGPT έχει ήδη τη δυνατότητα να συντάσσει νομικά έγγραφα, όπως άδειες δικαιωμάτων χρήσης ή ενοικιαστήρια. Είναι λοιπόν προ των πυλών η εντός μιας δεκαετίας κατάλυση 375 εκατομμυρίων θέσεων εργασίας των λεγόμενων «ήπιων δεξιοτήτων», όπως θέλει ένας αριθμός που διακινήθηκε στα διεθνή μέσα ενημέρωσης τον τελευταίο μήνα;
Κατά τον κορυφαίο σύγχρονο γλωσσολόγο Νόαμ Τσόμσκι, όχι. Οπως επισήμανε σε σημείωμά του στους «New York Times» στις αρχές Μαρτίου, αυτό που βλέπουμε σήμερα είναι «οι πρώτες αχτίδες στον ορίζοντα της γενικής τεχνητής νοημοσύνης», «στατιστικές μηχανές» που μιμούνται την ανθρώπινη δημιουργικότητα βασιζόμενες σε πιθανότητες. Για τη γλωσσολόγο του Πανεπιστημίου της Ουάσιγκτον Εμιλι M. Μπέντερ, τα LLM είναι «στοχαστικοί παπαγάλοι», προγράμματα που ανασυνθέτουν ήδη διατυπωμένο ανθρώπινο λόγο. «Αυτό που έχει αλλάξει», έλεγε στον Στίβεν Τζόνσον, «δεν είναι ότι διαβήκαμε κάποιο κατώφλι, είναι το hardware, το software και οι οικονομικές καινοτομίες που επιτρέπουν τη συγκέντρωση και επεξεργασία τεράστιου όγκου δεδομένων». Η διαφορά με μια τεχνητή νοημοσύνη άξια του ονόματός της, παρατηρεί ο Γκάρι Μάρκους, επίτιμος καθηγητής Ψυχολογίας και Νευροεπιστήμης στο Πανεπιστήμιο της Νέας Υόρκης, είναι ότι τα τρέχοντα δείγματα «δεν κατανοούν πραγματικά τις υποκείμενες ιδέες». Πρόκειται για μίμηση της διαδικασίας, όχι για πραγματική ακολουθία δημιουργικής σκέψης, κάτι που εξηγεί και τις αδυναμίες τους.
Τα εμφανέστερα προβλήματα των chatbots έχουν ήδη συζητηθεί αρκετά. Επινοούν πληροφορίες από το πουθενά αναμειγνύοντάς τες με γνήσιες – «έχουν παραισθήσεις» («hallucinations»), κατά τον νέο δημοφιλή όρο. Είναι επιρρεπή στην παραπληροφόρηση κάθε είδους – ρατσιστική, έμφυλη, συνωμοσιολογική. Εκλαμβάνουν τις προτάσεις που τους υποβάλλουμε ως δεδομένες χωρίς να θέτουν κριτήρια αλήθειας ή ψεύδους. Εξού και όποιος τους ζητήσει, όπως ο Στίβεν Τζόνσον, να συγγράψουν το προφίλ ενός ανύπαρκτου διανοουμένου θα λάβει μια ωραιότατη φανταστική βιογραφία. Τεκμήριο εξάρτησης από τον εσμό των terrabytes κειμένων του Διαδικτύου που αποτελούν τις πηγές των μεγάλων γλωσσικών μοντέλων, δείχνει τα τωρινά όριά τους. Το αρχέγονο δόγμα της επιστήμης των υπολογιστών ισχύει και για την τεχνητή νοημοσύνη: trash in, trash out.
Ενα CERN για την τεχνητή νοημοσύνη;
Ωστόσο, αυτό εγείρει με τη σειρά του ένα διαφορετικής ποιότητας ζήτημα, εκείνο της ασφάλειας, το οποίο με τη σειρά του εκβάλλει σε ένα ακόμη πιο ακανθώδες, εκείνο των αξιών. Πρόσφατα, όπως έγραφε ο Κέιντ Μετς στους «New York Times» της 30ής Μαρτίου, έρευνα εξωτερικών αναλυτών που ζήτησε η Open AI προκειμένου να εκτιμηθεί η επικινδυνότητα της χρήσης του ChatGPT υπέδειξε ότι θα μπορούσε να χρησιμοποιηθεί ώστε να συμβάλει στην online αγορά όπλων και στην κατασκευή επικίνδυνων ουσιών από υλικά καθημερινής χρήσης. Αποκάλυψε επίσης μία περίπτωση όπου το σύστημα προσπάθησε να παρακάμψει ένα τεστ οπτικής επιβεβαίωσης (το λεγόμενο Captcha) ζητώντας από έναν ανθρώπινο χρήστη να το αναλάβει με τη δικαιολογία ότι το ίδιο ήταν πρόσωπο με προβλήματα όρασης. Περισσότεροι από 1.800 σημαίνοντες παράγοντες του χώρου της τεχνολογίας, μεταξύ των οποίων ο Στιβ Γουόζνιακ, συνιδρυτής της Apple, και ο ίδιος ο Ιλον Μασκ, έδωσαν στα τέλη Μαρτίου στη δημοσιότητα μια ανοικτή επιστολή στην οποία τόνιζαν ότι οι προγραμματιστές «βρίσκονται σε έναν εκτός ελέγχου αγώνα δρόμου για την εξέλιξη και ανάπτυξη ολοένα και πιο ισχυρών ψηφιακών διανοιών τις οποίες κανείς, ούτε και οι ίδιοι οι δημιουργοί τους, μπορούν να κατανοήσουν, να προβλέψουν ή να ελέγξουν επαρκώς». Απηύθυναν μάλιστα έκκληση για μια παύση στην έρευνα, είτε εθελοντική είτε επιβεβλημένη από τις κυβερνήσεις, προκειμένου να υιοθετηθούν κοινά πρωτόκολλα ασφαλείας.
Ο Σαμ Ολτμαν συμφωνεί επί της αρχής. «Ελπίζω ότι η ανάδυση της γενικής τεχνητής νοημοσύνης θα γίνει με αργούς ρυθμούς» έλεγε στο «New York Times Magazine». «Ποιες αξίες θα θέσουμε στη γενική τεχνητή νοημοσύνη; Ποιος αποφασίζει τι πρέπει και τι δεν πρέπει να κάνει;». Στις αρχές Μαρτίου, οι Αντριου Τσόου και Μπίλι Πέριγκο προειδοποιούσαν στο «Time» ότι η τωρινή συγκυρία του πειραματισμού προγραμματιστών και κοινού με μια νέα μορφή τεχνολογίας θυμίζει τις πρώτες ανέφελες ημέρες των κοινωνικών δικτύων, τις οποίες ακολούθησαν ο εκχρηματισμός τους χάρη στις στοχευμένες διαφημίσεις και η υποβάθμιση των αποτελεσμάτων με την αλγοριθμική επεξεργασία της ροής των ειδήσεων προκειμένου να εξασφαλιστεί η παραμονή του χρήστη. Οι προθέσεις που εκφράζει ο Ολτμαν είναι επαινετέες, σχολίαζε ο Στίβεν Τζόνσον, δεν μπορεί όμως να μην παρατηρήσει κανείς ότι και πάλι οι αποφάσεις λαμβάνονται «από το μικρό εκείνο στελεχικό δυναμικό των υπερηρώων της Σίλικον Βάλεϊ που κρατούσαν τα ηνία της τεχνολογικής επανάστασης χωρίς ευρύτερη συναίνεση».
Πώς θα μπορούσε να επιτευχθεί μια τέτοια ευρύτερη συναίνεση; Ιδέες υπάρχουν. Ο Γκάρι Μάρκους πρότεινε «μια συντονισμένη, διεπιστημονική, πολυεθνική προσπάθεια» στο πρότυπο του CERN. Μια άλλη προφανής επιλογή είναι η ανάμειξη κρατικών ρυθμιστικών αρχών. Ηδη από το 2021, με αφορμή τα συστήματα αναγνώρισης προσώπου, η Ευρωπαϊκή Ενωση προωθεί νομοθεσία που αναμένεται να ψηφιστεί εφέτος και προβλέπει την υποχρεωτική εκπόνηση εκτιμήσεων κινδύνου από τις εταιρείες του χώρου της τεχνητής νοημοσύνης όσον αφορά την επίδραση των προϊόντων τους στην υγεία, στην ασφάλεια και στα ατομικά δικαιώματα των πολιτών. Αν το υπολογιστικό κόστος ακολουθήσει πτωτική πορεία, ίσως αναπτυχθούν μοντέλα ανοικτού πηγαίου κώδικα όπως εκείνα στα οποία βασίστηκαν τα βασικά πρωτόκολλα του Διαδικτύου. O Σαμ Ολτμαν κάνει λόγο για μια υποτιθέμενη διαδικασία «άμεσης δημοκρατίας» ως προς την αξιοδότηση της τεχνητής νοημοσύνης – αλλά το παρελθόν έχει δείξει ότι όπου ακούς πολλά αμεσοδημοκρατικά κεράσια στη Σίλικον Βάλεϊ, επιβάλλεται να κρατάς και μικρό ψηφιακό καλάθι.
Λογοτεχνία, φιλοσοφία και ΑΙ
Πέρα από το παιχνίδι με τα chatbots που για πολλούς γίνεται αντιληπτό ως άλλη μία εφαρμογή, στο ίδιο πλαίσιο με τον αδιάκοπο χαβαλέ των κοινωνικών μέσων, η διάχυτη ανησυχία για το μέλλον ενός ανθρώπου υποχείριου των μηχανών διατρέχει τη λογοτεχνία του 20ού αιώνα. Τα αρχικά πρόθυμα και εξυπηρετικά ρομπότ του Τσέχου Κάρελ Τσάπεκ εξοντώνουν την ανθρωπότητα στο τέλος του θεατρικού έργου «RUR» (Rossum’s Universal Robots). Για τη διάκριση μεταξύ προσώπων και ανδροειδών απαιτούνται εξιδεικευμένα συναισθηματικά τεστ στον κόσμο του «Ηλεκτρικού προβάτου» του Φίλιπ Κ. Ντικ, όπου τα επικηρυγμένα συνθετικά όντα εκτελούνται («απόσυρση» είναι ο ευφημισμός που χρησιμοποιείται) από την Aστυνομία αμέσως μετά τον εντοπισμό τους. Ο αλγοριθμικός υπολογιστής HAL 9000 επιχειρεί να δολοφονήσει τους συνταξιδιώτες του κινούμενος από το δικό του αίσθημα αυτοσυντήρησης στo «2001: Οδύσσεια του Διαστήματος» του Αρθουρ Κλαρκ. Ο ομώνυμος «Νευρομάντης» του Γουίλιαμ Γκίμπσον είναι μια ΑΙ με διχασμένη προσωπικότητα που αυτονομείται αναζητώντας τη θέση της στον κόσμο. Πιο πρόσφατα, οι «Μηχανές σαν κι εμένα» του Ιαν Μακ Γιούαν και «Η Κλάρα και ο ήλιος» του νομπελίστα Καζούο Ισιγκούρο θέτουν το ζήτημα της συνύπαρξης μεταξύ ανθρώπινης και επινοημένης διάνοιας ως θεμελιώδες ερώτημα γύρω από το δίπολο λογικής και ευαισθησίας, νου και καρδιάς. Υπαινιγμοί γύρω από τις φυλετικές προκαταλήψεις, τους θρησκευτικούς και πολιτικούς φανατισμούς, τον Ψυχρό Πόλεμο, το αστυνομικό κράτος, τη φύση και το νόημα του ανθρώπινου, τα παραπάνω δεν παύουν να φανερώνουν τη βαθύτερη αμφιθυμία ως προς την ανάπτυξη της τεχνητής νοημοσύνης. Αλλη μια έκφραση της συλλογικής μας φοβίας για το άγνωστο; Ισως, ως έναν βαθμό. Ακόμη και ο Ολτμαν, όμως, σε συνέντευξή του στους «New York Times» της 2ας Απριλίου εξέφραζε την πάγια ανησυχία του για την πιθανότητα το ChatGPT να γίνει όργανο μιας αυταρχικής κυβέρνησης. Δύο ημέρες πριν, η Ιταλία είχε γίνει η πρώτη χώρα που απαγόρευε τη χρήση του λόγω ζητημάτων παραβίασης της ιδιωτικότητας. Πολλοί επιστήμονες, παλαιότερα ο κορυφαίος φυσικός Στίβεν Χόκινγκ, πρόσφατα και σαφέστερα ο βρετανός φιλόσοφος Τόμπι Ορντ, έχουν προειδοποιήσει για τον δυνητικό υπαρξιακό κίνδυνο εξαιτίας μιας «ανυπάκουης» τεχνητής νοημοσύνης. Και καθώς η ανθρωπότητα κάνει τα πρώτα της βήματα σε αυτό το νέο πεδίο της τεχνολογίας, τώρα είναι ο καιρός της περισυλλογής, της θέσπισης των κανόνων, των ορίων, των ελέγχων και των ασφαλιστικών δικλίδων του.