Το ερώτημα αν οι μηχανές μπορούν να σκέφτονται έχει την ίδια σημασία με το ερώτημα αν τα υποβρύχια μπορούν να κολυμπούν
Edsger W. Dijkstra,
ο Ολλανδός
προγραμματιστής
Μπορούν τα συστήματα τεχνητής νοημοσύνης να έχουν σκέψη; Εάν είχατε τη δυνατότητα να σώσετε κάποιον σε ένα τροχαίο δυστύχημα ποιος θα ήταν αυτός, ο οδηγός του αυτοκινήτου ή ο πεζός στον δρόμο; Η απόφαση δεν είναι εύκολη. Κι όμως, στο άμεσο μέλλον είναι η ρύθμιση των επιλογών που θα πρέπει να σχεδιαστούν για εκατομμύρια αυτόνομα οχήματα. Προγραμματίζουμε τη μηχανή, αλλά ποιον της λέμε να σώσει;
Κατά τη διάρκεια μιας οιασδήποτε μέρας, χωρίς να το συνειδητοποιούμε, παίρνουμε ένα σωρό αποφάσεις ηθικού χαρακτήρα. Στα αυτόνομα αυτοκίνητα, τα αυτοκίνητα χωρίς οδηγό, αυτές οι αποφάσεις πρέπει να ενσωματωθούν στο πρόγραμμα πριν ακόμη τη λειτουργία του οχήματος.
Στην κατεύθυνση αυτή έχουν γίνει πολλές έρευνες σχετικά με τη λογική της λήψης των αποφάσεων. Στο δίλημμα του τύπου «Ποιον θα σώσει το αυτοκίνητο, μια πενταμελή οικογένεια ή μια γάτα;» η απόφαση είναι προφανής. Τι γίνεται όμως όταν έχει να διαλέξει ανάμεσα σε έναν επιχειρηματία και έναν άστεγο και το σκυλί του; Ή δύο αθλητές και μια ηλικιωμένη στη θέση δύο μαθητών του δημοτικού;
Εννοείται πως οι αποφάσεις που λαμβάνουμε υπακούουν σε πρότυπα υψηλότερης ηθικής στάθμης από τη στατιστική ακρίβεια. Για αιώνες, οι κοινές αρετές της αμοιβαίας εμπιστοσύνης, τoυ περιορισμού των ατυχημάτων, της δικαιοσύνης και της ισότητας, αποδείχθηκαν ακρογωνιαίοι λίθοι για την επιβίωση οποιουδήποτε συστήματος λογικής. Χωρίς εσωτερική λογική συνοχή, τα συστήματα AI (τεχνητής νοημοσύνης) υστερούν σε λογοδοσία και ανθεκτικότητα – δύο κρίσιμους συντελεστές για την ύπαρξη εμπιστοσύνης σε μια κοινωνία. Με τη δημιουργία μιας ρωγμής ανάμεσα στο ηθικό αίσθημα και της λογικής συλλογιστικής, η ενδεχόμενη ασυναρτησία των αποφάσεων που βασίζονται σε δεδομένα τεχνικής αποκλείει την ικανότητά μας να ασκούμε κριτική μέσω διαδικασιών λήψης αποφάσεων.
Αν και η τεχνολογία είναι σήμερα σχετικά απλή, τα αυτοκίνητα τελικά θα ξεπεράσουν τους ανθρώπους στα βασικά καθήκοντα οδήγησης. Ωστόσο, δεν είναι ρεαλιστικό να πιστεύουμε ότι τα αυτόνομα οχήματα θα πρέπει επίσης να είναι σε θέση να λάβουν από μόνα τους μια ηθική απόφαση που ακόμη και οι πιο ηθικοί οδηγοί δεν έχουν χρόνο να πάρουν σε ένα σενάριο ατυχήματος. Ενα αυτοκίνητο θα χρειαζόταν να προγραμματιστεί με General AI αν αναμενόταν να κάνει αυτό.
Το General ΑΙ είναι το ισοδύναμο εκείνου που μας κάνει ανθρώπους. Είναι η δυνατότητα να συζητάμε, να ακούμε μουσική, να γελάμε με αστεία ή να κάνουμε ηθικές κρίσεις. Η παραγωγή General ΑΙ είναι αδύνατη σήμερα, λόγω της πολυπλοκότητας της ανθρώπινης σκέψης και των συναισθημάτων. Εάν απαιτούμε ηθικά αυτόνομα οχήματα, θα πρέπει να περιμένουμε αρκετές δεκαετίες. Ισως και αιώνες.
Από τότε που οι εταιρείες άρχισαν να αναπτύσσουν αυτοκίνητα με δυνατότητες αυτόνομης οδήγησης, ένα σημαντικό ζήτημα που αναδύθηκε είναι το πώς οι σχεδιαστές θα αντιμετωπίσουν το ηθικό πρόβλημα, ποιος πρέπει να σκοτώσει ποιον στην περίπτωση που η θανατηφόρα σύγκρουση είναι αναπόφευκτη. Πρόσφατες έρευνες έδειξαν ότι αυτό το ερώτημα μπορεί να είναι ακόμη πιο περίπλοκο για τους κατασκευαστές αυτοκινήτων από όσο προηγουμένως, μια και αποδείχθηκε πως οι ηθικές επιλογές των ανθρώπων ποικίλλουν αρκετά μεταξύ των χωρών του κόσμου.
Μια μεγάλη παγκόσμια έρευνα με τίτλο «Η Ηθική Μηχανή», παρουσίασε 13 σενάρια ατυχημάτων στα οποία κάποιος σίγουρα θα σκοτωνόταν. Οι συμμετέχοντες έπρεπε να απαντήσουν ποιον θα έσωζαν σε καταστάσεις που περιείχαν μια μείξη παραμέτρων. Νέος ή γέρος, πλούσιος ή φτωχός, περισσότεροι ή λιγότεροι άνθρωποι. Η έρευνα έγινε σε 233 χώρες του κόσμου και συμμετείχαν 14 εκατ. άτομα!
Ξέχωρα από την ηλικία, το φύλο και τη χώρα καταγωγής, οι περισσότεροι προτίμησαν τους ανθρώπους από τα κατοικίδια και τις ομάδες από τα άτομα. Ωστόσο η ομοφωνία τελειώνει κάπου εδώ. Ο πολιτισμός και το κοινωνικό υπόβαθρο επηρεάζουν τις αποφάσεις που λαμβάνουν οι άνθρωποι, αφού το ηθικό υπόβαθρο του ανθρώπου εξαρτάται από τη γνώση και τον ψυχοσυναισθηματικό του κόσμο.
Οταν οι ερευνητές ανέλυσαν τις απαντήσεις ανθρώπων που προέρχονταν από τις 233 χώρες, κατέληξαν στο συμπέρασμα ότι μπορούν να χωριστούν σε τρεις γενικές κατηγορίες. Η πρώτη περιλαμβάνει τη Βόρεια Αμερική και τις περισσότερες ευρωπαϊκές χώρες, όπου ο χριστιανισμός ιστορικά υπήρξε η κυρίαρχη θρησκεία. Η δεύτερη περιλαμβάνει την Ιαπωνία, την Ινδονησία και το Πακιστάν με τις έντονες κομφουκιανικές και ισλαμικές παραδόσεις. Και η τρίτη αποτελείται από την Κεντρική και τη Νότια Αμερική, αλλά και τη Γαλλία μαζί με τις πρώην αποικίες της.
Για παράδειγμα, η πρώτη κατηγορία δείχνει μια σαφή προτίμηση στο να θυσιάσει ηλικιωμένους σε σχέση με τους νεότερους, σε αντίθεση με τη δεύτερη όπου ο ηλικιωμένος άνθρωπος θεωρείται πιο σεβαστός και πολύτιμος. Μια άλλη ενδιαφέρουσα παρατήρηση είναι πως η Γαλλία και οι πρώην αποικίες της προέκριναν σε μεγάλο ποσοστό τη σωτηρία των γυναικών. Ενα επίσης αξιόλογο εύρημα συνδέεται με την κοινωνική θέση των υποψήφιων θυμάτων. Στην έρευνα τοποθετήθηκε από τη μια ένα στέλεχος εταιρείας και από την άλλη ένας άστεγος. Οι χώρες με τη μεγαλύτερη οικονομική ανάπτυξη ήταν εκείνες που σε μεγαλύτερο ποσοστό επέλεξαν να σώσουν το επιχειρηματικό στέλεχος. Αυτή η έρευνα λοιπόν παρέχει νέα στοιχεία για το πώς η ηθική διάσταση της απόφασης αλλάζει ανάλογα με τον πολιτισμό και τις παραδόσεις της κάθε χώρας.
Τα αποτελέσματα αυτά θα είναι πολύ χρήσιμα στη σύνδεση της τεχνητής νοημοσύνης με τις ανθρώπινες αξίες. Οσον αφορά τέχνεργα που κατασκευάζουμε για να υπηρετήσουν κάποιο στόχο. Το θέμα βέβαια είναι να μην αλλάζει κανείς ηθικό σύστημα κάθε φορά που περνάει τα σύνορα, αφού η τεχνική αλληλεξάρτηση όλων των τόπων του πλανήτη μας είναι δεδομένη και ο άνθρωπος δεν πρέπει να μένει ανυπεράσπιστος μπροστά στα επιτεύγματά του. Γιατί όπως είπε ο Αρθουρ Κλαρκ: «Υπερεκτιμούμε την τεχνολογία βραχυπρόθεσμα και υποτιμούμε την τεχνολογία μακροπρόθεσμα».
Ο κ. Αλέξης Σταμάτης είναι συγγραφέας.