Οι Ολυμπιακοί Αγώνες στο Παρίσι είναι ο λόγος για περισσότερες από μισό δισεκατομμύριο αναρτήσεις στα μέσα κοινωνικής δικτύωσης, σύμφωνα με την εκτίμηση της Διεθνούς Ολυμπιακής Επιτροπής. Και σε αυτό το νούμερο δεν περιλαμβάνονται καν τα σχόλια.
Πολλά από τα posts θα αναφέρουν ονόματα αθλητών -κυρίως των αθλητών σταρ- και όχι πάντα για καλό σκοπό. Οι επιθέσεις και οι προσβλητικές αναρτήσεις δεν πρόκειται να λείψουν τη στιγμή που οι αθλητές θα ζουν μερικές από τις πιο δύσκολες και επίπονες στιγμές της καριέρας τους. Οι πανηγυρισμοί και οι εκφράσεις εθνικής υπερηφάνειας πάνε χέρι χέρι με το μίσος, την παρενόχληση ακόμα και τις απειλές.
Σε ένα τέτοιο πλαίσιο ο κίνδυνος για την ψυχική υγεία των αθλητών παραμονεύει και είναι μεγάλος αναφέρει το δημοσίευμα του BBC. Αλλά η ΔΟΕ διερευνά μια νέα λύση: την επόμενη φορά που κάποιος θα κάνει μια ανάρτηση στα social media ένα σύστημα τεχνητής νοημοσύνης θα εξετάζει όσα λέγονται με στόχο να κρατήσει ασφαλείς και μακριά από τον διαδικτυακό εκφοβισμό τους αθλητές.
Η Αμερικανίδα τενίστρια Sloane Stephens, για παράδειγμα, αποκάλυψε ότι έλαβε περισσότερα από 2.000 υβριστικά μηνύματα μετά από έναν αγώνα. Ο ποδοσφαιριστής της Αγγλίας Τζουντ Μπέλινγκχαμ μίλησε επίσης για τις ρατσιστικές προσβολές που δέχεται ο ίδιος και άλλοι παίκτες σε τακτική βάση.
«Η διαπροσωπική βία είναι κάτι που μπορεί να διαιωνίζεται σε φυσική μορφή, αλλά και στο διαδίκτυο» λέει η Kirsty Burrows, επικεφαλής της Safe Sport Unit της ΔΟΕ. «Η Τεχνητή Νοημοσύνη δεν είναι πανάκεια, αλλά αποτελεί κρίσιμο μέρος της προσπάθειας για την καταπολέμηση της. Θα ήταν αδύνατο να αντιμετωπίσουμε τον όγκο των δεδομένων χωρίς το σύστημα AI» πρόσθεσε.
Κατανοώντας τον γραπτό λόγο
Είναι εύκολο να ρυθμιστεί ένα φίλτρο αναζήτησης που βρίσκει προσβλητικές λέξεις ή φράσεις, όπως κατάρες ή ρατσιστικές προσβολές. Όταν υπάρχει όμως ένας τόσο μεγάλος αριθμός αναρτήσεων χρειάζεται ένα εργαλείο που να μπορεί να διαχωρίσει το νόημα. Εδώ έρχεται να βοηθήσει η τελευταία γενιά της τεχνητής νοημοσύνης.
Τα μεγάλα γλωσσικά εργαλεία- τα οποία μαθαίνουν να επεξεργάζονται και να παράγουν γλώσσα αναλύοντας μοτίβα σε τεράστιες εκτάσεις κειμένου (εργαλεία όπως το ChatGPT) -μπορούν να βοηθήσουν στον εντοπισμό των συναισθημάτων και των προθέσεων πίσω από ένα κείμενο, ακόμη και αν δεν υπάρχουν λέξεις που να τα μαρτυρούν. Το σύστημα που αξιοποιεί η ΔΟΕ για την εξάλειψη της διαδικτυακής κατάχρησης, γνωστό ως Threat Matrix, έχει εκπαιδευτεί ακριβώς για αυτόν τον σκοπό.
«Εργαλεία όπως το Threat Matrix ακολουθούν μια πολύπλευρη προσέγγιση» λέει ο Qublai Ali Mirza, λέκτορας στο Πανεπιστήμιο του Gloucestershire, ο οποίος έχει μελετήσει το πώς διασταυρώνεται η τεχνητή νοημοσύνη και ο εκφοβισμός του πληκτρολογίου.
Και συνεχίζει: «Πάρτε για παράδειγμα τον σαρκασμό – κάτι που ο άνθρωπος κατανοεί, όχι όμως και ο υπολογιστής. Πιο προηγμένα συστήματα, όπως το Threat Matrix, μπορούν επίσης να επεξεργαστούν τους τρόπους με τους οποίους οι εικόνες και τα emojis μπορούν να αλλάξουν το νόημα ενός κειμένου – και όλα αυτά κατανοώντας τις διαφορετικές έννοιες και αποχρώσεις σε διαφορετικές γλώσσες και περιοχές. Θα χρειαζόταν ένας στρατός ανθρώπων για να κάνει το ίδιο έργο, ένας στρατός απαγορευτικά μεγάλος ακόμη και για έναν οργανισμό με εκτεταμένους πόρους όπως η ΔΟΕ».
Όπως επισημαίνει ο καθηγητής είναι σημαντικό να υπάρχει μια αυτοματοποιημένη απάντηση σε κακεντρεχή και επιθετικά posts, ώστε να μην φτάνουν στον αθλητή και να προστατεύεται με αυτό τον τρόπο η ψυχική του υγεία.
Πώς λειτουργεί το Threat Matrix
Κατά τη διάρκεια των αγώνων το Threat Matrix θα σαρώνει τις αναρτήσεις στα μέσα κοινωνικής δικτύωσης σε περισσότερες από 35 γλώσσες σε συνεργασία με το Facebook, το Instagram, το TikTok και το X.
Το σύστημα θα εντοπίζει τα υβριστικά σχόλια που απευθύνονται στους αθλητές, τους συνοδούς τους και τους αξιωματούχους των Ολυμπιακών και Παραολυμπιακών Αγώνων. Στη συνέχεια θα κατηγοριοποιεί τους διάφορους τύπους κακοποίησης και θα επισημαίνει τις αναρτήσεις σε μια ομάδα κριτών. Έτσι η τεχνητή νοημοσύνη θα κάνει τη βαρειά δουλειά, αλλά η ταξινόμηση, που είναι και πιο κρίσιμη, θα περνάει από τον άνθρωπο.
Όταν το σύστημα εντοπίσει ένα πρόβλημα, μια ομάδα «ταχείας αντίδρασης» θα εξετάσει τις αναρτήσεις για να βρει περιεχόμενο που έχασε η τεχνητή νοημοσύνη και στη συνέχεια θα μπορεί πχ να επικοινωνήσει με το θύμα για να του προσφέρει υποστήριξη, ακόμα και να διαγράψει αναρτήσεις που παραβιάζουν τις πολιτικές των μέσων κοινωνικής δικτύωσης. Θα είναι δυνατή ακόμα και η προσφυγή στις αστυνομικές αρχές για πιο σοβαρές απειλές. Συχνά αυτό θα συμβαίνει προτού ο αθλητής έχει καν την ευκαιρία να δει το προσβλητικό περιεχόμενο, σύμφωνα με τη ΔΟΕ.
Ακόμη όμως και με τη δύναμη που παρέχει η τεχνητή νοημοσύνη, ο βιτριολισμός στο διαδίκτυο είναι ένα κοινωνικό πρόβλημα και η τεχνολογία δεν μπορεί να λύσει από μόνη της τα κοινωνικά προβλήματα.