Πριν μερικές μέρες, διευθυντής Γυμνασίου της Ναυπάκτου προχώρησε σε καταγγελία στις αστυνομικές αρχές κατά ενός 13χρονού μαθητή του σχολείου ο οποίος δημιουργούσε μέσω εφαρμογής πλαστές γυμνές φωτογραφίες μαθητριών του σχολείου και τις διακινούσε. Κατά την προανακριτική διαδικασία προέκυψε ότι πέραν του 13χρονου συμμετοχή είχε και ένας ακόμα μαθητής. Μερικούς μήνες νωρίτερα, τον Ιανουάριο, ένας 15χρονος μαθητής στον Ασπρόπυργο κατέβασε στον υπολογιστή του ένα πρόγραμμα τεχνητής νοημοσύνης (ΑΙ), το οποίο του επέτρεπε να επεξεργάζεται φωτογραφίες προκειμένου να «γδύνει» τις συμμαθήτριές του. Συγκεκριμένα, η εν λόγω εφαρμογή σκανάρει τις εικόνες και μέσω αλγορίθμου, αντιλαμβάνεται το σχήμα και τις αναλογίες του εκάστοτε εικονιζόμενου, παρουσιάζοντας μια αληθοφανή εικόνα του γυμνού του σώματος.
Και στις δύο περιπτώσεις, οι παρέες των μαθητών έκαναν «παραγγελία» την κοπέλα που θα ήθελαν να δουν γυμνή και στη συνέχεια εκείνοι κατέβαζαν μια φωτογραφία της κοπέλας από το Instagram της και στη συνέχεια χρησιμοποιούσαν το πρόγραμμα για να αφαιρέσουν τα ρούχα της. Έπειτα διακινούσαν το παραποιημένο φωτογραφικό υλικό σε ομαδικές συνομιλίες.
«Tο σεξουαλικό περιεχόμενο δεν χρειάζεται καν να είναι αληθινό, προκειμένου να διακινηθεί».
Ειδικά στο περιστατικό του Ασπρόπυργου, επί 3 μήνες ο 15χρονος και η παρέα του εξευτέλιζαν κοπέλες στο σχολείο τους χωρίς καμία συνέπεια. Η ιστορία αποκαλύφτηκε όταν δύο θύματα ηλικίας 12 ετών μίλησαν στους γονείς τους για ό,τι είχε συμβεί. Μπορεί το υλικό να ήταν παραποιημένο, αλλά οι ψυχικές συνέπειες ενός τέτοιου διασυρμού παραμένουν πέρα για πέρα αληθινές. Οι γονείς των δύο 12χρονων κοριτσιών πιστεύουν πως υπήρξαν κι άλλα θύματα αλλά τα αποδεικτικά στοιχεία είχαν σβηστεί από τα chat που χρησιμοποιούσε η παρέα.
Tο εκδικητικό και το deepfake πορνό
Το εκδικητικό πορνό (revenge porn, η μη συναινετική κοινοποίηση σεξουαλικών εικόνων και βίντεο) είναι είναι ένα ανησυχητικό φαινόμενο, το οποίο συζητήθηκε πολύ στη χώρα μας με αφορμή την υπόθεση του Στάθη Παναγιωτόπουλου. Αυτό που μας δείχνουν όμως οι πρόσφατες ιστορίές από τον Ασπρόπυργο και τη Ναύπακτο είναι ότι το σεξουαλικό περιεχόμενο δεν χρειάζεται καν να είναι αληθινό, προκειμένου να διακινηθεί. Οι νέες εξελίξεις στην τεχνολογία της τεχνητής νοημοσύνης έχουν δημιουργήσει μια τρομακτική συνθήκη: τα μη συναινετικά deepfakes.
Το deepfake πορνό περιλαμβάνει την τοποθέτηση του προσώπου ενός ατόμου σε σεξουαλικές εικόνες ή βίντεο, για τη δημιουργία ρεαλιστικού περιεχομένου στο οποίο δεν έχει συμμετάσχει ποτέ. Κατά καιρούς, ακούμε για εφαρμογές ή σελίδες, που παρέχουν αυτού του είδους τις υπηρεσίες πορνογραφικού deepfake στους χρήστες. Τέτοιες εφαρμογές συνήθως κρατάνε λίγους μήνες, πριν «πέσουν» από τις μαζικές αναφορές. Όμως, σαν τα κεφάλια της Λερναίας Ύδρας, πάντα πολλαπλασιάζονται. Σε λίγους μήνες επανεμφανίζεται άλλη εφαρμογή, πιο εξελιγμένη. Άντρες και αγόρια φτιάχνουν νέες ομαδικές συνομιλίες ή φόρουμ για να ανταλλάσσουν υλικό από τα σώματά μας, σαν να ήταν συλλογές με αυτοκόλλητα.
Πώς δουλεύει το deepfake πορνό
Μιλώντας για εφαρμογές που προσφέρουν υπηρεσίες deepfake πορνό, μια από τις πιο διαδεδομένες (που για ευνόητους λόγους θα αποφύγουμε να αναφέρουμε ονομαστικά) διαφημίζει κατά καιρούς τις υπηρεσίες της ελεύθερα σε πορνογραφικά sites. Το μόνο που χρειάζεται να κάνουν οι χρήστες είναι να επιλέξουν μια φωτογραφία του ατόμου που θα ήθελαν να δουν να «πρωταγωνιστεί» σε οποιαδήποτε σεξουαλική σκηνή και να την ανεβάσουν. Με λίγα μόνο κλικ, μπορούν να δημιουργήσουν πορνογραφικά βίντεο με συμμετέχοντες άτομα που δεν έχουν ποτέ συναινέσει στην παραγωγή αυτού του περιεχομένου.
«Το μόνο που χρειάζεται να κάνουν οι χρήστες είναι να επιλέξουν μια φωτογραφία του ατόμου που θα ήθελαν να δουν να «πρωταγωνιστεί» σε οποιαδήποτε σεξουαλική σκηνή».
Για να γίνει απόλυτα ξεκάθαρο: μια εταιρεία, όχι απλώς παρέχει αυτές τις υπηρεσίες, πλουτίζοντας από τα σώματα άλλων γυναικών χωρίς τη συναίνεσή τους, αλλά τις διαφημίζει κιόλας ανοιχτά χωρίς καμία νομική συνέπεια. Φυσικά, αυτό δεν είναι παρά άλλο ένα έμφυλο ζήτημα: μια μελέτη που πραγματοποιήθηκε το 2019 αποκαλύπτει ότι το 90 με 95% των deepfakes είναι μη συναινετικά και περίπου το 90% των εικονιζόμενων είναι γυναίκες.
Έχει συζητηθεί εκτενώς το πώς η τεχνολογία deepfake μπορεί να χρησιμοποιηθεί με σκοπό την πολιτική προπαγάνδα και τη διασπορά ψευδών ειδήσεων. Πέραν αυτού όμως, δεν συζητάμε αρκετά για τις συνέπειες της τεχνολογίας αυτής στις γυναίκες και τα κορίτσια, που είναι τα πιθανότερα θύματα. Το 2020, η νομική φιλανθρωπική οργάνωση Revenge Porn Helpline δημοσίευσε μια μελέτη με τίτλο «Κατάχρηση προσωπικών εικόνων: Ένα εξελισσόμενο τοπίο», στην οποία μιλούσε για την άνοδο της τεχνολογίας deepfake και τις «ανησυχητικές διαστάσεις» της κατάχρησής της.
Η κακοποιητική όψη της εξέλιξης της τεχνητής νοημοσύνης
Πράγματι, πολλές οργανώσεις και ακτιβιστές ενημερώνουν και ευαισθητοποιούν τον κόσμο καθημερινά για θέματα έμφυλης βίας, εκδικητικού πορνό, κουλτούρας βιασμού, κλπ. Κι αν γινόμαστε όλο και πιο ευαισθητοποιημένοι πάνω σε τέτοια θέματα, τότε γιατί τα κρούσματα μόνο αυξάνονται; Από τη μία, η τεχνολογία εξελίσσεται με δραματικούς ρυθμούς: ακόμη κι αν συγκρίνουμε τα περσινά αποτελέσματα των εφαρμογών ΑΙ με τα φετινά, θα παρατηρήσουμε ξεκάθαρη βελτίωση του περιεχομένου. Από την άλλη, είναι περιορισμένη η βοήθεια που μπορούν να προσφέρουν οι οργανώσεις και οι ακτιβιστές μεμονωμένα, αφού στις περισσότερες χώρες δεν προβλέπονται νόμοι για το deepfake πορνό. Όσο νιώθουμε ότι κάνουμε βήματα προς τα εμπρός, ο μισογυνισμός θα βρίσκει νέους τρόπους να μας ταπεινώσει και να μας κατέχει…έστω και ψηφιακά. Αυτό άλλωστε είναι χαρακτηριστικό της βίας: είναι χαμαιλέων, θα αλλάξει άπειρες μορφές προκειμένου να εκκολαφτεί σε κάθε νέα συνθήκη. Το τι συνιστά βία και κακοποίηση είναι ένα πεδίο που πρέπει να διευρυνθεί περαιτέρω. Επομένως, είναι σημαντικό το νομικό σύστημα να «προλάβει» την εξέλιξη της τεχνολογίας και την ασύδοτη χρήση της από τους θύτες.
«Το 90 με 95% των deepfakes είναι μη συναινετικά και περίπου το 90% των εικονιζόμενων είναι γυναίκες».
Στα παραπάνω ας προστεθεί και μια άλλη σημαντική ψηφιακή παράμετρος: το Metaverse. Οι κόσμοι εικονικής πραγματικότητας (VR – Virtual Reality), προσομοιώνουν ψηφιακά χώρους, περιβάλλοντα και ανθρώπους. Εκεί, η εικόνα μας μπορεί να συλληφθεί και να ψηφιοποιηθεί για να δημιουργηθεί ένα ρεαλιστικό avatar, κατ’ εικόνα και καθ’ ομοίωσίν μας. Γίνεται σαφές ότι αυτό είναι το ιδανικό έδαφος για περιστατικά ψηφιακής σεξουαλικής κακοποίησης. Αυτό δεν είναι κάποιο υποθετικό πρόβλημα του μέλλοντος, αλλά κάτι που συμβαίνει ήδη: η ερευνήτρια Nina Jane Patel έγραψε ένα άρθρο στο Medium σχετικά με το πώς το avatar της βιάστηκε ομαδικά από πολλούς άνδρες, ένα λεπτό αφού μπήκε στο Meta του Facebook.
«Η βία είναι ένας χαμαιλέων· θα αλλάξει άπειρες μορφές προκειμένου να εκκολαφτεί σε κάθε νέα συνθήκη».
Όταν συζητάμε για τα αρνητικά της τεχνητής νοημοσύνης ή τα deepfake συχνά κινδυνεύουμε να πέσουμε στην παγίδα της τεχνοφοβίας. Όχι, η εξέλιξη της τεχνολογίας δε θα πρέπει να πλαισιώνεται ως κάτι εγγενώς κακό. Στην πραγματικότητα, το πρόβλημα έγκειται στα άτομα και τις εταιρείες που χρησιμοποιούν αυτές τις τεχνολογίες για να εκμεταλλευτούν, να εξαπατήσουν και να διαπομπεύσουν τα θύματα.
Η τεχνολογία deepfake θα μπορούσε να χρησιμοποιηθεί με χιλιάδες θετικούς τρόπους (πχ: ήδη εξετάζεται η χρήση της στον χώρο των ντοκιμαντέρ). Το γεγονός ότι στη συντριπτική πλειοψηφία του χρησιμοποιείται για να «γδύσει» γυναίκες, αποκαλύπτει περισσότερα για τον πολιτισμό μας, παρά για την ίδια την τεχνολογία. Οι νέες τεχνολογίες βρήκαν ένα εύφορο έδαφος μισογυνισμού και του επέτρεψαν να διοχετευτεί εκεί έξω με διαφορετικές μορφές. Γιατί στην εποχή της εξέλιξης, τα πάντα εκσυγχρονίζονται· ακόμη και η βία.