Η Λερναία Υδρα του Deepfake – Το μέσο εξαπάτησης που απλώνει τα πλοκάμια του παντού

Ο κίνδυνος για τη δημοκρατία και την εμπιστοσύνη στους θεσμούς από τα αληθοφανή βίντεο επωνύμων που παράχθηκαν από την τεχνητή νοημοσύνη - Τα «κεφάλια», από το πορνογραφικό υλικό με σουπερστάρ του Χόλιγουντ έως τη διαφήμιση με τον Αρχιεπίσκοπο Ιερώνυμο

«Θα πρέπει να μάθουμε να λειτουργούμε με την ιδέα ότι πολλά από τα προσωπικά μας δεδομένα μπορεί ανά πάσα στιγμή να γίνουν διαθέσιμα σε κάποιον τρίτο, χωρίς την άδειά μας. Το Ιντερνετ δεν ξεχνά…».

Ετσι, σαν μια αναπόδραστη πραγματικότητα, περιγράφει στο «Βήμα» ο Κώστας Καρπούζης, επίκουρος καθηγητής στο Τμήμα Επικοινωνίας, Μέσων και Πολιτισμού στο Πάντειο Πανεπιστήμιο την εποχή της Παραγωγικής Τεχνητής Νοημοσύνης. Κι αν ο όρος φαντάζει πολύ τεχνικός, αρκεί μια ματιά στα μέσα κοινωνικής δικτύωσης για να καταλάβει κανείς τι ακριβώς περιγράφει. Εκεί τα deepfake βίντεο κάνουν θραύση ως «αθώα πλάκα» – όσο «πλάκα» έχει να βλέπεις τον Κυριάκο Μητσοτάκη ως διαγωνιζόμενο σε τάλεντ σόου ή τον Αλέξη Τσίπρα σε ρόλο λαϊκού αοιδού.

Μέσο εξαπάτησης

Στο μεταξύ όμως η Παραγωγική Τεχνητή Νοημοσύνη και τα deepfake βίντεο κάνουν θραύση ως μέσο εξαπάτησης που απλώνει τα πλοκάμια του παντού. Ως πορνογραφικό υλικό με «πρωταγωνιστές» τους σταρ του Χόλιγουντ. Αλλά και ως διαφημιστικό σποτ και τηλεμπόριο με «πρωταγωνιστή» τον Προκαθήμενο της Ελληνικής Εκκλησίας.

Ετσι είδαμε προ ημερών τον Αρχιεπίσκοπο Αθηνών και πάσης Ελλάδος Ιερώνυμο να διαφημίζει θεραπεία για την καταπολέμηση της αρθρίτιδας και λοιπών παθήσεων. Μπροστά στα μάτια μας, με σάρκα και οστά. Με τη χαρακτηριστική φωνή του να διαβεβαιώνει για το αποτέλεσμα επί των αρθρώσεων και μάλιστα μακριά από χειρουργικά νυστέρια. Λίγα λεπτά μετά την προβολή τής εν λόγω «διαφήμισης» η Αρχιεπισκοπή Αθηνών με ανακοίνωσή της έκανε λόγο για «φθηνό και ποινικά κολάσιμο προϊόν», αναφέροντας ότι το deepfake βίντεο αποτελεί βαρύτατα προσβλητική και χυδαία πράξη.

Επίπτωση στη δημοκρατία

«Ο κίνδυνος διάδοσης ψευδών ειδήσεων και σκόπιμης παραπληροφόρησης αυξάνεται εκθετικά μέσω της ευρείας χρήσης της παραγωγικής τεχνητής νοημοσύνης (Generative AI), η οποία μπορεί να οδηγήσει στην επιμόλυνση του πληροφοριακού οικοσυστήματος με όλως ρεαλιστικά bots και συνθετικά μέσα, όπως τα deepfakes. Η ταχύτητα και η βελτιούμενη συντακτική ακρίβεια αυτών των μοντέλων τα καθιστά τέλειο εργαλείο για τη μαζική δημιουργία άψογων, φαινομενικά θεμελιωμένων σε δεδομένα, ψευδών ειδήσεων και τη χειραγώγηση της κοινής γνώμης καθώς και τη δραστική επίπτωση σε δημοκρατικές διαδικασίες, όπως οι εκλογές» λέει σχετικά στο «Βήμα» η Λίλιαν Μήτρου, καθηγήτρια στο Πανεπιστήμιο Αιγαίου και πρόεδρος του Ινστιτούτου για την Ιδιωτικότητα, τα Προσωπικά Δεδομένα και την Τεχνολογία.

Τα deepfakes αποτελούν παγκοσμίως μια σύγχρονη πρόκληση, με την τεχνολογία να έχει εξελιχθεί σε τέτοιον βαθμό ώστε να μπορεί να παραπλανήσει τόσο τις ανθρώπινες αισθήσεις όσο και τους αλγορίθμους ανίχνευσης πλαστού περιεχομένου.

Δύσκολη η ανίχνευση

Πώς μπορεί να καταλάβει κανείς ένα deepfake βίντεο διά γυμνού οφθαλμού; «Ο συγχρονισμός των χειλιών και της φωνής είναι ένας από τους πρώτους τρόπους για να καταλάβει ο χρήστης αν το βίντεο που παρακολουθεί είναι προϊόν τεχνητής νοημοσύνης. Αλλά και πάλι, σε αρκετές των περιπτώσεων το αποτέλεσμα είναι τόσο αληθοφανές που ο συγχρονισμός αυτός γίνεται δύσκολα ανιχνεύσιμος» εξηγεί στο «Βήμα» ο Κωνσταντίνος Μουρλάς, διευθυντής του Εργαστηρίου Νέων Τεχνολογιών στην Επικοινωνία, την Εκπαίδευση και τα ΜΜΕ.

Ο όγκος και η πολυπλοκότητα των απατών έχουν διευρυνθεί, απλώνοντας τα πλοκάμια τους παντού. Από την πολιτική σκηνή και τον χώρο του θεάματος μέχρι την εκκλησία και τα σχολεία. Το επόμενο «θύμα» μπορεί να είναι οποιοσδήποτε, με τη συζήτηση περί προσωπικών δεδομένων διαρκώς σε πρώτο πλάνο. «Ακόμα κι αν διαγράψουμε μια φωτογραφία, ένα post ή ένα μήνυμα από κάποιο μέσο κοινωνικής δικτύωσης ή κάποια εφαρμογή messaging, δεν είμαστε καθόλου σίγουροι ότι αυτό όντως θα διαγραφεί και από τους servers της αντίστοιχης εταιρείας» προσθέτει ο κ. Καρπούζης.

Μηδενική προστασία

«Το γεγονός πάντως είναι ότι η προσπάθεια να προστατευτείς από το Διαδίκτυο και την αισχρότητα είναι βασικά μια χαμένη υπόθεση» έλεγε το 2019 η Σκάρλετ Γιόχανσον, η οποία είδε το πρόσωπό της σε (deepfake) βίντεο ερωτικού περιεχομένου. Σύμφωνα με έρευνα που επικαλείται ο «Guardian», σχεδόν 4.000 διάσημοι έχουν πέσει θύματα deepfake πορνογραφίας. Πέντε χρόνια μετά η Γιόχανσον καταφέρεται εναντίον της OpenAI και του διευθύνοντος συμβούλου της λέγοντας ότι χρησιμοποίησαν μια φωνή παρόμοια με τη δική της για το φωνητικό λογισμικό τεχνητής νοημοσύνης, παρά το γεγονός ότι η ίδια είχε απορρίψει την πρόταση. Τρανταχτό παράδειγμα και ο Τομ Κρουζ, deepfake βίντεο του οποίου κυκλοφόρησαν στο TikTok το 2021 μετρώντας πάνω 11 εκατομμύρια προβολές μέσα σε λίγες ώρες. Πλήθος φωτογραφιών της Τέιλορ Σουίφτ να ποζάρει προκλητικά (οι οποίες φτιάχτηκαν με τη βοήθεια της τεχνητής νοημοσύνης) κατέκλυσαν τα κοινωνικά δίκτυα στα τέλη Ιανουαρίου 2024. Το Facebook και το Instagram φιλοξένησαν διαφημίσεις τής πλαστώς γυμνής Τζένα Ορτέγκα σε μία προσπάθεια προώθησης εφαρμογής η οποία μπορούσε να γδύσει γυναίκες χρησιμοποιώντας ΑΙ.

Ο εξωγήινος Ομπάμα

Η επέλαση του ΑΙ βρέθηκε στο επίκεντρο των διαπραγματεύσεων της Συντεχνίας Αμερικανών Σεναριογράφων, η οποία προχώρησε σε απεργία 150 ημερών, με το  Σωματείο των Ηθοποιών SAG-AFTRA να ακολουθούν κάνοντας απεργία 118 ημερών. Κύριο αίτημα η θέσπιση νέων κανόνων για τη χρήση τεχνητής νοημοσύνης από τα στούντιο του Χόλιγουντ. Τα deepfakes έχουν τη δύναμη να δημιουργήσουν ψευδείς αφηγήσεις, που αποδίδονται σε δημόσια πρόσωπα, όπως ακριβώς συνέβη με την περίπτωση του Μπαράκ Ομπάμα που «παραδέχθηκε ότι είναι εξωγήινος». Εν είδει πολιτικής προπαγάνδας, διευκολύνουν ιδιαίτερα τη χειραγώγηση της κοινής γνώμης και κατ’ επέκταση της ψήφου. Ενα από τα μεγάλα κανάλια της Ρωσίας, το NTV, μετέδωσε fake βίντεο ενός ανώτατου ουκρανού αξιωματούχου, σε μια προσπάθεια να κατηγορήσει την Ουκρανία για το μακελειό στο Crocus City Hall στη Μόσχα, τον Μάρτιο του 2024.

Ο Βολοντίμιρ Ζελένσκι βρέθηκε στο στόχαστρο – κι έγινε αντικείμενο χλευασμού – το 2022 με ένα deepfake βίντεο στο οποίο φαινόταν να υποχωρεί στις απαιτήσεις της Ρωσίας και να καλεί τους Ουκρανούς να παραδώσουν τα όπλα.

Deepfake εικόνες έχουμε δει και από την κινηματογραφική «σύλληψη» του Ντόναλντ Τραμπ (2023) για την υπόθεση Στόρμι Ντάνιελς, αλλά και από δικαστική αίθουσα στην οποία ο Βλαντίμιρ Πούτιν προσερχόταν φορώντας την πορτοκαλί στολή των κρατουμένων στις ΗΠΑ. Στη γείτονα Ιταλία η πρωθυπουργός Τζόρτζια Μελόνι ζητά αποζημίωση 100.000 ευρώ για την προβολή deepfake βίντεο πορνό με πρωταγωνίστρια την ίδια.

Ευκαιρίες και παγίδες

«Αναμφίβολα βρισκόμαστε σε μια νέα επανάσταση της τεχνολογίας, παρόμοια με αυτή της γέννησης του Διαδικτύου. Απαιτείται ισορροπία ανάμεσα στις ευκαιρίες και τις παγίδες της τεχνολογικής εξέλιξης και ενίσχυση του ψηφιακού εγγραμματισμού των μεγαλύτερων που χρησιμοποιούν τα κοινωνικά δίκτυα (βασικές πηγές παροχής ενημέρωσης), αλλά και των νέων· οι οποίοι όμως είναι πιο καχύποπτοι» επισημαίνει ο κ. Μουρλάς. Στην ίδια κατεύθυνση ο κ. Καρπούζης λέει ότι «εντάσσοντας τις τεχνολογίες αυτές στην εκπαιδευτική διαδικασία, μπορούμε να προετοιμάσουμε την κοινωνία για την πιθανή παραπληροφόρηση», ενώ η κυρία Μήτρου συμπληρώνει ότι διαφορετικά «η αδυναμία διάκρισης του αληθινού και του ψεύτικου, η αίσθηση ότι δεν ξέρεις πια τι να πιστέψεις, θα καταλήξει στη δημιουργία κοινωνιών μηδενικής εμπιστοσύνης με συνέπεια τη διάβρωση της εμπιστοσύνης στους θεσμούς».

Ακολούθησε το Βήμα στο Google news και μάθε όλες τις τελευταίες ειδήσεις.