Ισως να μην υπάρχει αυτό το διάστημα τομέας της ανθρώπινης δραστηριότηταςπου να μας τροφοδοτεί τόσο συχνά με ειδήσεις οι οποίες θα μπορούσαν να χαρακτηριστούν από ανησυχητικές έως τρομακτικές όσο οι εξελίξεις στην έρευνα για την ανάπτυξη της τεχνητής νοημοσύνης. Είναι φυσικά γνωστό το πάθος με το οποίο οι μεγάλοι παίκτες τού tech industry έχουν επιδοθεί σε μια κούρσα ξέφρενου ανταγωνισμού σε ό,τι έχει σχέση με το artificial intelligence. Η Google αισθανόταν εδώ και μήνες ότι είχε μείνει πίσω – η σύμπραξη της Microsoft με την OpenAI για τη δημιουργία του ChatGPT τούς έπιασε όλους απροετοίμαστους – και έψαχνε τρόπους για να κυριαρχήσει πάλι στη δημόσια συζήτηση περί τεχνητής νοημοσύνης.
Ετσι, τον περασμένο Απρίλιο ο τεχνολογικός κολοσσός συγχώνευσε το DeepMind, ένα ερευνητικό εργαστήριο που είχε αποκτήσει στο Λονδίνο, με την Brain, μια ομάδα τεχνητής νοημοσύνης που ίδρυσε στη Silicon Valley. Τέσσερις μήνες αργότερα, οι συνδυασμένες ομάδες δοκιμάζουν νέα, φιλόδοξα εργαλεία που θα μπορούσαν να δημιουργήσουν, με τη βοήθεια της τεχνολογίας πίσω από τα chatbots όπως το ChatGPT της OpenAI και το Bard της Google, προσωπικούς, προσωποποιημένους ψηφιακούς life coaches. Σύμφωνα με πρόσφατο ρεπορτάζ των «New York Times», η Google DeepMind στοχεύει στο να μπορεί η δική της εφαρμογή της generative AI να εκτελεί τουλάχιστον 21 διαφορετικούς τύπους προσωπικών και επαγγελματικών εργασιών, συμπεριλαμβανομένων εργαλείων που θα δίνουν στους χρήστες συμβουλές και ιδέες για τη ζωή τους αλλά και οδηγίες για να προγραμματίζουν και να εκτελούν καλύτερα τις υποχρεώσεις τους.
Ενα παράδειγμα που έδωσε η Google στη δημοσιότητα σχετικά με το τι θα μπορούσε μια μέρα κάποιος user να ρωτήσει το chatbot ήταν μια προσωπική ερώτηση σχετικά με το πώς να πει σε έναν στενό του φίλο που έχει προγραμματίσει να κάνει τον γάμο του σε έναν ακριβό προορισμό ότι δεν έχει την οικονομική δυνατότητα να παρευρεθεί στην εκδήλωση. Το εργαλείο λέγεται ότι διαθέτει ήδη τη δυνατότητα να παρέχει προτάσεις ή συστάσεις στους χρήστες ακόμη και με αφετηρία πολύ διαφορετικές μεταξύ τους καταστάσεις. Μπορεί επίσης να διδάξει ή να βελτιώσει δεξιότητες όπως το τρέξιμο, και να παρέχει σε όσους το ζητήσουν πλήρες πλάνο προετοιμασίας γευμάτων και προπονήσεων.
Συμβουλές αυτοβελτίωσης και «βουτιές» σε βιβλιοθήκες
Οι ειδικοί έχουν προειδοποιήσει πολλάκις τον τελευταίο καιρό για τους κινδύνους που ελλοχεύουν στη χρήση των chatbots και υπήρξαν πολλοί που εξέφρασαν ηθικές ανησυχίες ειδικά για τις σχέσεις που θα μπορούσαν να δημιουργηθούν μεταξύ ανθρώπων και εφαρμογών τεχνητής νοημοσύνης. Δεν είναι τυχαίο το ότι έχουν αυξηθεί οι εκκλήσεις για τη δημιουργία ρυθμιστικού πλαισίου και νόμων που θα βάζουν όρια στην ανεξέλεγκτη ανάπτυξη του generative AI. Ο δόκτωρ Κρίστιαν Γκάτμαν, επιστήμονας AI και αντιπρόεδρος μηχανικής, λήψης αποφάσεων και τεχνητής νοημοσύνης στην Pegasystems, δήλωσε στη βρετανική εφημερίδα «The Guardian» σχετικά με τους ψηφιακούς life coaches: «Αυτή η εξέλιξη είναι μια φυσική μετατόπιση στον τρόπο με τον οποίο η τεχνητή νοημοσύνη εφαρμόζεται στην καθημερινή μας ζωή. Και πράγματι, η χρήση της τεχνητής νοημοσύνης έχει ήδη χρησιμοποιηθεί με επιτυχία σε άλλα περιβάλλοντα για πολλά χρόνια, σε περιοχές που είναι ευαίσθητες και όπου οι άνθρωποι προτιμούν πραγματικά να ζητούν συμβουλές από μια εφαρμογή τεχνητής νοημοσύνης. Είναι ωστόσο σημαντικό να ακολουθήσουμε μια υπεύθυνη προσέγγιση για τη δημιουργία αυτών των σχέσεων μεταξύ των ανθρώπων και των συστημάτων τεχνητής νοημοσύνης για να διασφαλίσουμε ότι οι συμβουλές που δίνονται σε ένα άτομο είναι ασφαλείς και εναρμονισμένες με αυτό που θα συμβούλευε ένας επαγγελματίας».
Επειδή βεβαίως όλες αυτές οι εξελίξεις αποτελούν terra incognita, τα σχόλια αυτά ακούγονται υπερβολικά γενικά και αόριστα. Σε ανάρτηση που έκανε τον περασμένο Απρίλιο ανακοινώνοντας τη συγχώνευση DeepΜind και Brain, ο Σούνταρ Πιτσάι, διευθύνων σύμβουλος της Google και της Alphabet, δήλωσε: «Για να διασφαλίσουμε την τολμηρή και υπεύθυνη ανάπτυξη της generative τεχνητής νοημοσύνης ιδρύουμε μια μονάδα που θα μας βοηθήσει να δημιουργήσουμε πιο ικανά συστήματα με μεγαλύτερη ασφάλεια και αξιοπιστία». Ενας εκπρόσωπος της Google DeepMind δήλωσε με τη σειρά του: «Εχουμε εργαστεί εδώ και καιρό με διάφορους συνεργάτες για να αξιολογήσουμε την έρευνα και τα προϊόντα μας σε όλη την Google, κάτι που είναι ένα κρίσιμο βήμα για τη δημιουργία ασφαλούς και χρήσιμης τεχνολογίας. Ανά πάσα στιγμή υπάρχουν πολλές τέτοιες αξιολογήσεις σε εξέλιξη. Μεμονωμένα δείγματα δεδομένων αξιολόγησης δεν είναι αντιπροσωπευτικά του οδικού χάρτη προϊόντων μας».
Οσοι ευθύνονται για αυτή την ασαφή διατύπωση και νεφελώδη ορολογία θα μπορούσαν να ζητήσουν βοήθεια από τις δικές τους εφαρμογές τεχνητής νοημοσύνης. Για να παράγουν επαρκείς απαντήσεις στις πολύπλοκες ερωτήσεις των χρηστών, συστήματα όπως το ChatGPT επεξεργάζονται τεράστιες ποσότητες γραπτού υλικού. Ωστόσο, λίγοι άνθρωποι εκτός εταιρειών όπως η Meta και η OpenAI γνωρίζουν την πλήρη έκταση των κειμένων στα οποία έχουν εκπαιδευτεί αυτά τα προγράμματα. Κάποια γραπτά προέρχονται από τη Wikipedia και άλλες ψηφιακές πλατφόρμες που ειδικεύονται στην ξερή παράθεση στοιχείων και την απλή περιγραφή γεγονότων, αλλά η υψηλής ποιότητας generative τεχνητή νοημοσύνη απαιτεί την εξοικείωση με κείμενα πιο περίτεχνα από αυτά που βρίσκει συνήθως κανείς στο Διαδίκτυο – δηλαδή, απαιτεί να «μάθουν» αυτά τα συστήματα και λίγη λογοτεχνία.
Οπως διαβάζουμε στον ιστότοπο The Atlantic, σε μια αγωγή που κατατέθηκε στην Καλιφόρνια τον περασμένο μήνα, οι συγγραφείς Σάρα Σίλβερμαν, Ρίτσαρντ Κάντρεϊ και Κρίστοφερ Γκόλντεν ισχυρίζονται ότι η εταιρεία Meta παραβίασε τους νόμους περί πνευματικών δικαιωμάτων χρησιμοποιώντας χωρίς να έχει πάρει την άδειά τους τα βιβλία τους για να εκπαιδεύσει το LLaMA, ένα γλωσσικό μοντέλο παρόμοιο με το GPT-4 της OpenAI, έναν αλγόριθμο δηλαδή που μπορεί να δημιουργήσει προτάσεις και παραγράφους μιμούμενο τα μοτίβα χρήσης λέξεων που βρίσκει σε άλλα δείγματα κειμένων. Τουλάχιστον 170.000 βιβλία, τα περισσότερα από τα οποία έχουν εκδοθεί τα τελευταία 20 χρόνια, βρίσκονται στα εκπαιδευτικά δεδομένα του LLaMA. Εκτός από το έργο των προαναφερθέντων συγγραφέων, έχουν χρησιμοποιηθεί επίσης θρίλερ των Τζέιμς Πάτερσον και Στίβεν Κινγκ, μυθιστορήματα του Τζορτζ Σόντερς, της Ζέιντι Σμιθ και του Τζούνο Ντίαζ. Η συλλογή περιλαμβάνει επίσης μυθοπλαστικά έργα και δοκίμια της Ελενα Φεράντε και της Ρέιτσελ Κασκ, τουλάχιστον εννέα βιβλία του Χαρούκι Μουρακάμι, πέντε της Τζένιφερ Ιγκαν, επτά του Τζόναθαν Φράνζεν, 33 της Μάργκαρετ Ατγουντ. Μέχρι εδώ θα μπορούσε να μιλήσει κανείς για πολύ καλό γούστο. Υπάρχουν ωστόσο στη λίστα 102 βιβλία του Λαφαγιέτ Ρόναλντ Χάμπαρντ, ιδρυτή της εκκλησίας της Σαϊεντολογίας, 90 πονήματα του αμφιλεγόμενου πάστορα Τζον Φ. Μακ Aρθουρ και πολλές δημιουργίες του Εριχ φον Ντένικεν, συγγραφέα γνωστού για τις απόψεις του σχετικά με την επίδραση εξωγήινων στους αρχαίους πολιτισμούς.
Αυτά τα βιβλία αποτελούν μέρος ενός συνόλου δεδομένων που ονομάζεται Books3 και η χρήση του δεν έχει περιοριστεί στο LLaMA. Το Books3 χρησιμοποιήθηκε επίσης για την εκπαίδευση του BloombergGPT του Bloomberg και του GPT-J του EleutherAI – ένα δημοφιλές μοντέλο ανοιχτού κώδικα – και πιθανότατα άλλα προγράμματα παραγωγής τεχνητής νοημοσύνης που είναι τώρα ενσωματωμένα σε ιστοτόπους στο Διαδίκτυο. Τα περισσότερα φυσικά έχουν χρησιμοποιηθεί με σεβασμό στους εκάστοτε νόμους περί πνευματικών δικαιωμάτων και πολλοί σχολιάζουν ότι η εκπαίδευση της τεχνητής νοημοσύνης με τέτοιο υλικό συνιστά «δίκαιη χρήση», το νομικό δόγμα που επιτρέπει τη χρήση υλικού που προστατεύεται από πνευματικά δικαιώματα υπό ορισμένες συνθήκες, για τον εμπλουτισμό της κουλτούρας. Το επιχείρημα του κλάδου για τη δίκαιη χρήση βασίζεται σε δύο ισχυρισμούς: ότι τα εργαλεία παραγωγής τεχνητής νοημοσύνης δεν αναπαράγουν τα βιβλία στα οποία έχουν εκπαιδευτεί, αλλά παράγουν νέα έργα, και ότι αυτά τα νέα έργα δεν βλάπτουν την εμπορική αγορά για τα πρωτότυπα. Υπάρχει ωστόσο και εδώ μια συζήτηση που πρέπει να ξεκινήσει και αφορά το αν θα επιτρέπεται στις εφαρμογές της τεχνητής νοημοσύνης να δημιουργούν τα δικά τους αντίστοιχα έργα ανταγωνιζόμενες τους «δασκάλους» και τις «δασκάλες» τους.