Στον χθεσινό αγώνα ποδοσφαίρου της Εθνικής πληροφορηθήκαμε ότι ο εκλέκτορας της Ισπανίας Λουίς Ενρίκε είχε απουσιάσει για μεγάλο χρονικό διάστημα από τον πάγκο της ομάδας του και είχε αντικατασταθεί από το βοηθό προπονητή εξαιτίας του χαμού της μόλις 9 ετών κόρης του από καρκίνο. Επανήλθε αφού του δόθηκε χρόνος για να διαχειριστεί ψυχολογικά το τραγικό συμβάν. Ίσως δεν θα συνέβαινε κάτι τέτοιο αν κάποιος αλγόριθμος ρύθμιζε τις προσλήψεις και τις απολύσεις στην ισπανική ομάδα – και αν βεβαίως η τραγωδία δεν είχε χτυπήσει το διάσημο προπονητή αλλά έναν απλό υπάλληλο της ομάδας.
Το βρετανικό Συνέδριο Εργατικών Συνδικάτων (TUC) προειδοποίησε τις ημέρες αυτές για τα «τεράστια κενά» που αφήνει η εργατική νομοθεσία του Ηνωμένου Βασιλείου σε ό,τι αφορά την χρήση της τεχνητής νοημοσύνης στους εργασιακούς χώρους. Το TUC επισήμανε ότι Βρετανοί εργαζόμενοι «προσλαμβάνονται και απολύονται από έναν αλγόριθμο». Και ότι, ως εκ τούτου, «υπάρχει επείγουσα ανάγκη να εκσυγχρονιστεί το πλαίσιο νομικής προστασίας της εργασίας».
«Έλα συ, φύγε συ»
Η διαχείριση ανθρώπινου δυναμικού σε μια εταιρεία δεν μπορεί να γίνει από ρομπότ. Αυτό είναι το κεντρικό νόημα των διαπιστώσεων του TUC. «Η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για να βελτιωθεί η παραγωγικότητα σε μια επιχείρηση αλλά και η ποιότητα ζωής των εργαζομένων σ’ αυτή. Φαίνεται όμως ότι χρησιμοποιείιται και για τη λήψη αποφάσεων που επιφέρουν κεφαλαιώδεις αλλαγές στη ζωή των εργαζομένων, όπως είναι οι αποφάσεις για την πρόσληψη ή την απόλυσή τους», δήλωσε στο BBC ο γενικός γραμματέας του TUC Φράνσις Ο’Γκρέιντι.
Γι’ αυτό ακριβώς απαιτούνται κανόνες που θα ρυθμίζουν τη χρήση της τεχνητής νοημοσύνης. «Για να σταματήσουν τα ολοένα συχνότερα περιστατικά διακρίσεων και άδικης συμπεριφοράς στους χώρους εργασίας, κυρίως όταν πρόκειται για απασχολούμενους με εδικές σχέσεις εργασίας δίχως νομική προστασία, για μερικώς απασχολουμένους ή για εργαζόμενους στην οικονομία του διαμοιρασμού (gig economy)», όπως σημειώνει ο Ο’Γκρέιντι.
Οι αλγόριθμοι χρησιμοποιούνται σε πολλούς εργασιακούς χώρους για να φέρνουν εις πέρας απλές υπηρεσίες. Στην Uber κομπιούτερ κατατοπίζουν τους οδηγούς για τα δρομολόγια που θα κάνουν, ενώ στην Amazon είναι γνωστό ότι χρησιμοποιείται η τεχνητή νοημοσύνη σε συστήματα παρακολούθησης και εποπτείας της συμπεριφοράς των εργαζομένων στις αποθήκες, αναφέρει ως παραδείγματα το BBC.
Πολλές επιχειρήσεις επίσης χρησιμοποιούν αυτοματοποιημένα ηλεκτρονικά συστήματα για να διαχειριστούν τα πρώτα στάδια της διαδικασίας πρόσληψης προσωπικού, κάνοντας ένα πρώτο «ξεκαθάρισμα» των υποψηφίων.
Είναι χαρακτηριστική η δήλωση εργαζόμενης στη Βρετανία (σε άλλο ρεπορτάζ του BBC) που απολύθηκε από εταιρεία οικονομικών συμβούλων το Μάρτιο του 2020 και έκτοτε, εν καιρώ πανδημίας, είχε υποβάλει περισσότερες από 300 αιτήσεις για πρόσληψη σε εταιρείες και κλήθηκε σε (διαδικτυακή) συνέντευξη μόλις 20 φορές. Η 30χρονη Βρετανίδα πιστεύει ότι οι αλγόριθμοι ευθύνονται για την απόρριψη των αιτήσεών της.
Φυσιογνωμικός ρατσισμός
«Όσο προοδεύει και εξελίσσεται τεχνολογικά η τεχνητή νοημοσύνη μεγαλώνει και ο πειρασμός να την εμπιστευθεί κανείς για πιο σοβαρές και πολιτικοκοινωνικά ευαίσθητες αποφάσεις, όπως αυτές που σχετίζονται με τη μετρική ανάλυση των χαρακτηριστικών του προσώπου», σημειώνει σε έκθεσή της η βρετανική συνομοσπονδία συνδικάτων.
«Η επίδοση ενός εγγράφου απόλυσης μπορεί να επιδοθεί από ένα φυσικό πρόσωπο, αλλά η απόφαση έχει ουσιαστικά δεν έχει ληφθεί από άνθρωπο. Ή ακόμα κι αν δεν είναι έτσι, η κρίση εκείνου που αποφασίζει αν κάποιος εργαζόμενος θα μείνει ή θα φύγει επηρεάζεται κατά τρόπο τελείως παραπλανητικό από τις μηχανές», τονίζει ο επικεφαλής του TUC.
Πολλές περιπτώσεις διακρίσεων εξαιτίας των αλγορίθμων έχουν εντοπιστεί τα τελευταία χρόνια, που οδηγούν σε άδικη μεταχείριση των εργαζομένων εκ μέρους των επιχειρήσεων, δίχως πολλές φορές αυτές να έχουν την πρόθεση. Χαρακτηριστικό παράδειγμα αποτελεί η τεχνολογία αναγνώρισης προσώπων, η οποία έως πρόσφατα είχε προγραμματιστεί έτσι ώστε να αναγνωρίζει ευκολότερα τα πρόσωπα με λευκή επιδερμίδα.
Το TUC αναφέρει περιπτώσεις μαύρων οδηγών της Uber που απολύθηκαν επειδή το λογισμικό αναγνώρισης δεν μπορούσε να αναγνωρίσει τα πρόσωπά τους. Τέτοια προβλήματα οδήγησαν πέρυσι την ΙΒΜ να εγκαταλείψει την εξέλιξη της τεχνολογίας αυτής, την οποία χαρακτήρισε «μεροληπτική».
Ο Φράνσις Ο’Γκρέιντι αναφέρεται στα ευρήματα της έρευνας του συνδικαλιστικού οργάνου που διενεργήθηκε με την αρωγή ειδικευμένων στην εργατική νομοθεσία δικηγόρων και της AI Law Consultancy (πρόκειται για μια εταιρεία συμβούλων για νομικά ζητήματα που συνδέονται με την τεχνητή νοημοσύνη), που συμπεραίνει ότι η νομοθεσία δεν μπορεί να παρακολουθήσει την ταχύτητα με την οποία προοδεύει η τεχνητή νοημοσύνη.
Οι ειδικοί προτείνουν μεταρρυθμίσεις στην εργατική νομοθεσία και την υιοθέτηση των εξής μέτρων:
Να υποχρεώνονται οι εργοδότες να συμβουλεύονται τα συνδικάτα των εργαζομένων προτού υιοθετεήσουν εφαρμογές τεχνητής νοημοσύνης «υψηλού ρίσκου» και «ανεξέλεγκτων παρεμβάσεων» στις επιχειρήσεις.
Να κατοχυρωθεί για τους εργαζομένους το «δικαίωμα της αποσύνδεσης» από το γραφείο και να μην απαιτεί ο εργοδότης να απαντούν σε τηλεφωνήματα ή ηλεκτρονικά μηνύματα καθ’ όλη τη διάρκεια της ημέρας, ιδιαίτερα τώρα που λόγω πανδημίας έχει επεκταθεί θεαματικά η πρακτική της τηλεργασίας.
Να εκσυγρονιστούν οι νόμοι ώστε να εξασφαλίζουν την προστασία των εργαζομένων από τις διακρίσεις που ενίοτε «επιβάλλουν» σε ένα εργασιακό περιβάλλον οι αλγόριθμοι.