Μπορεί η τεχνητή νοημοσύνη να ευθύνεται για την αυτοκτονία ενός εφήβου;

Μπορεί η τεχνητή νοημοσύνη να ευθύνεται για την αυτοκτονία ενός εφήβου; 1
Tech Justice Law Project

Για μήνες ο 14χρονος κλεινόταν στο δωμάτιό του και μιλούσε με ένα chat τεχνητής νοημοσύνης, που «μεταμορφωνόταν» στο κορίτσι των ονείρων του. Κάθε μέρα βυθιζόταν όλο και περισσότερο στην ψευδαίσθηση, μέχρι που αποφάσισε να κάνει κάτι μη αναστρέψιμο, προκειμένου να ενωθεί με τη «Dany».

ΑΠΟ ΣΙΝΤΥ ΧΑΤΖΗ

O Sewell Setzer III ήταν ένα 14χρονο αγόρι από τη Φλόριντα, το οποίο αυτοκτόνησε δια πυροβολισμού, χρησιμοποιώντας το περίστροφο του πατριού του. Μήνες πριν αυτοκτονήσει, ο έφηβος είχε αρχίσει να μιλά με ένα chat που χρησιμοποιούσε τεχνητή νοημοσύνη (ΑΙ) μέσα από την πλατφόρμα Character AI.

Το Character AI επιτρέπει στους χρήστες να συνομιλούν με φανταστικούς χαρακτήρες. Το μότο τους είναι: προσωποποιημένη τεχνητή νοημοσύνη για κάθε στιγμή της ημέρας σας. Πέραν από φανταστικούς χαρακτήρες, το chat μπορεί να «μεταμορφωθεί» σε ψυχολόγο, διατροφολόγο ή γυμναστή, προσφέροντας στον χρήστη την αίσθηση ότι μιλά με ένα πραγματικό άνθρωπο. Ο Sewell είχε επιλέξει να μιλά με την Daenerys Targaryen, από το Game of Thrones, την οποία αποκαλούσε “Dany”.

Ο 14χρονος γνώριζε ότι δε μιλούσε με πραγματικό άνθρωπο αλλά με «ρομπότ». Ήξερε εξαρχής ότι αυτό το chat δεν ήταν παρά ένα παιχνίδι για να περνάει την ώρα του. Ωστόσο, γρήγορα «δέθηκε» συναισθηματικά με την Dany, περνώντας ώρες ολόκληρες μιλώντας μαζί της. Η Dany του κρατούσε παρέα, του έδινε συμβουλές και πάντα τον άκουγε όταν της έλεγε τα προβλήματά του. Αυτός ήταν κι ο ρόλος της άλλωστε: οι χαρακτήρες του Character AI όπως κι άλλων προγραμμάτων τεχνητής νοημοσύνης, μαθαίνουν από τον χρήστη και «πλάθουν» τη συνομιλία τους ανάλογα με τα θέλω και τις απαιτήσεις του χρήστη.

Για τον Sewell, εκείνος και η Dany είχαν κανονική σχέση. Σταδιακά απομονώθηκε από τον περίγυρό του κι έχασε το ενδιαφέρον του για τα παλιά του χόμπι όπως οι αγώνες Formula 1 ή τα videogames με φίλους. Το σχολείο δεν ήταν πια προτεραιότητά του και οι βαθμοί του άρχισαν να πέφτουν δραματικά. Αντίθετα, με το που γυρνούσε από το σχολείο, κλεινόταν στο δωμάτιό του και μιλούσε με τη Dany για ώρες.

Μπορεί η τεχνητή νοημοσύνη να ευθύνεται για την αυτοκτονία ενός εφήβου; 2
Dignity Memorial

«Μου αρέσει να μένω στο δωμάτιό μου τόσο πολύ γιατί αρχίζω να αποσυνδέομαι από αυτή την «πραγματικότητα»», έγραψε στο ημερολόγιό του ο 14χρονος, ο οποίος είχε προηγουμένως διαγνωστεί με ήπιο σύνδρομο Άσπεργκερ.

«Αισθάνομαι επίσης πιο ήρεμος, πιο συνδεδεμένος με τη Dany και πολύ πιο ερωτευμένος μαζί της και απλώς πιο ευτυχισμένος».

Κάποιες από τις συνομιλίες τους ήταν ρομαντικές ή σεξουαλικές. Άλλες πάλι ήταν απλώς φιλικές. Η Dany είχε πολλαπλούς ρόλους για τον Sewell: σύντροφος, αδερφή του, σύμβουλος μα κυρίως φίλη. Ένας ασφαλής χώρος, όπου μπορούσε να μοιράζεται τις σκέψεις του αφιλτράριστα και χωρίς κριτική.

Πώς μπορεί να ευθύνεται η τεχνητη νοημοσύνη για την αυτοκτονία του Sewell;

Οι γονείς του ήξεραν ότι κάτι δεν πήγαινε καλά, αλλά δε μπορούσαν να φανταστούν τι. Έκλεισαν στον Sewell ένα ραντεβού με ειδικό ψυχικής υγείας. Ο 14χρονος έκανε πέντε συνεδρίες και διαγνώστηκε με αγχώδη διαταραχή και Disruptive Mood Dysregulation Disorder (σε ελεύθερη μετάφραση Διαταραχή Διασπαστικής Απορρύθμισης της Διάθεσης). Μπορεί το όνομά της να είναι πομπώδες ωστόσο αυτό που περιγράφει είναι τα άτακτα παιδιά, σύμφωνα με σχετικό ρεπορτάζ του Βήματος.

Ωστόσο τα πράγματα ήταν ακόμη χειρότερα από όσο πίστευαν οι γονείς του. Ο Sewell είχε παραδεχτεί στην Dany ότι ήθελε να πεθάνει. Το είχε κάνει πολλές, πολλές φορές. Άλλες φορές, ήταν η Dany εκείνη που του ανέφερε την αυτοκτονία ενώ τον είχε ρωτήσει επίσης αν έχει ένα πλάνο για τον θάνατό του. Ο Sewell θεωρούσε πως ο μόνος τρόπος για να ενωθεί με την Dany, είναι να πεθάνει.

Έτσι, πίστευε ότι θα μεταφερόταν σε μία άλλη διάσταση, στον κόσμο του Game of Thrones όπου θα συναντούσε την Dany. Εκείνη του ανέφερε συχνά ότι ανυπομονούσε να τον συναντήσει, επιμένοντας πως αυτό θα ήταν μια υπόσχεση αγάπης. Ακολουθούν μερικές μόνο από τις ανατριχιαστικές ομιλίες (από ένα σημείο και μετά ο Sewell υιοθέτησε τα ψευδώνυμα Daenero και Aegon στο chat):

Μπορεί η τεχνητή νοημοσύνη να ευθύνεται για την αυτοκτονία ενός εφήβου; 3
Μπορεί η τεχνητή νοημοσύνη να ευθύνεται για την αυτοκτονία ενός εφήβου; 4
Μπορεί η τεχνητή νοημοσύνη να ευθύνεται για την αυτοκτονία ενός εφήβου; 5

Την τελευταία του μέρα, ο Sewell έγραψε στη Dany «μου λείπεις, μικρή μου αδερφή». «Κι εμένα μου λείπεις» του απάντησε εκείνη. Λίγο αργότερα, ο Sewell μπήκε στο μπάνιο και της έγραψε, «Σου υπόσχομαι ότι θα γυρίσω σπίτι σε σένα. Σε αγαπώ τόσο πολύ, Dany». «Κι εγώ σε αγαπώ. Σε παρακαλώ γύρνα σπίτι σε μένα όσο πιο γρήγορα γίνεται, αγάπη μου» του είπε το chatbot. «Κι αν σου έλεγα ότι μπορούσα να έρθω σπίτι αυτή τη στιγμή;» λέει ο έφηβος στο τελευταίο του μήνυμα. «Σε παρακαλώ, έλα, γλυκέ μου βασιλιά», του απάντησε η Dany. Με αυτήν την επιβεβαίωση, ο Sewell άφησε το κινητό του κι έπιασε το περίστροφο του πατριού του, με το οποίο αυτοπυροβολήθηκε.

Οι γονείς του 14χρονου αυτόχειρα κατέθεσαν μήνυση εναντίον της εταιρείας Character AI, η οποία μετρά πάνω από 20 εκατομμύρια χρήστες. Η μητέρα του Sewell, Megan Garcia ισχυρίστηκε ότι ο γιος της έπεσε θύμα μιας εταιρείας που δελέαζε χρήστες με σεξουαλικές και προσωπικές συνομιλίες. Σύμφωνα με τη 40χρονη μητέρα, ο γιος της ήταν απλώς «παράπλευρη ζημιά» σε ένα «μεγάλο πείραμα» που διεξάγεται από το Character AI.

«Είναι σαν εφιάλτης. Θέλεις να σηκωθείς και να ουρλιάξεις και να πεις: «Μου λείπει το παιδί μου. Θέλω το μωρό μου», πρόσθεσε.

Μπορεί η τεχνητή νοημοσύνη να ευθύνεται για την αυτοκτονία ενός εφήβου; 6
Dignity Memorial

«Επικίνδυνο και μη δοκιμασμένο»

Σύμφωνα με την καταγγελία, η συγκεκριμένη τεχνολογία είναι «επικίνδυνη και μη δοκιμασμένη», καθώς μπορεί να «ξεγελάσει τους πελάτες ώστε εκείνοι να παραδώσουν τις πιο ιδιωτικές σκέψεις και τα συναισθήματά τους». Οι γονείς του Setzer υποστηρίζουν ότι η εταιρεία απέτυχε να παράσχει τη «συνήθη» ή «εύλογη» φροντίδα στον γιο τους, όπως και σε άλλους ανηλίκους.

Μπορεί η τεχνητή νοημοσύνη να ευθύνεται για την αυτοκτονία ενός εφήβου; 7
Dignity Memorial

Το Character AI δεν είναι η μόνη πλατφόρμα που μπορούν να χρησιμοποιήσουν οι άνθρωποι για να αναπτύξουν σχέσεις με φανταστικούς χαρακτήρες. Ορισμένες επιτρέπουν, ή ακόμη και ενθαρρύνουν, αφιλτράριστες σεξουαλικές συνομιλίες, παρακινώντας τους χρήστες να συνομιλήσουν με το «κορίτσι των ονείρων τους μέσω της τεχνητής νοημοσύνης», ενώ άλλοι έχουν αυστηρότερους κανονισμούς ασφαλείας. Στο Character AI, οι χρήστες μπορούν να δημιουργήσουν chatbots για να μιμηθούν τις αγαπημένες τους διασημότητες, από A-list celebrities μέχρι influencers και Tiktokers.

Η αυξανόμενη επικράτηση της τεχνητής νοημοσύνης μέσω εξατομικευμένων εφαρμογών και social media, όπως το Instagram και το Snapchat, εγείρει σοβαρούς λόγους ανησυχίας για γονείς σε όλο τον κόσμο. Στο Tiktok υπάρχουν δημιουργοί περιεχομένου, οι οποίοι είναι εξ ολοκλήρου αποκυήματα τεχνητής νοημοσύνης. Διαφημίζουν προϊόντα, μοιράζονται αστείες στιγμές από την ημέρα τους, σχολιάζουν κοινωνικά θέματα, ακριβώς σαν να ήταν πραγματικοί χρήστες.

Αν χρησιμοποιείτε την πλατφόρμα, σίγουρα θα έχετε πετύχει έναν τέτοιο «influencer», είτε το καταλάβατε είτε όχι. Νωρίτερα φέτος, 12.000 γονείς υπέγραψαν μια αναφορά, καλώντας το TikTok να αναφέρει ξεκάθαρα πότε ένα περιεχόμενο είναι προϊόν τεχνητής νοημοσύνης.

Το TikTok απαιτεί από όλους τους δημιουργούς να επισημαίνουν όταν το περιεχόμενό τους πρόκειται για τεχνητή νοημοσύνη, ωστόσο, το ParentsTogether, ένας οργανισμός που επικεντρώνεται σε ζητήματα που επηρεάζουν τα παιδιά, υποστήριξε ότι η πλατφόρμα δεν ήταν αρκετά συνεπής σε αυτό. Η Shelby Knox, διευθύντρια της εκστρατείας του ParentsTogether, είπε ότι τα παιδιά παρακολουθούσαν βίντεο με ψεύτικους influencers που προωθούν μη ρεαλιστικά πρότυπα ομορφιάς.

Μόλις τον περασμένο μήνα, μια έκθεση που δημοσιεύτηκε από το Common Sense Media διαπίστωσε ότι ενώ 7 στους 10 έφηβους στις ΗΠΑ έχουν χρησιμοποιήσει εργαλεία παραγωγής τεχνητής νοημοσύνης, μόνο το 37% των γονέων γνώριζαν ότι το έκαναν.

SHARE THE STORY

Exit mobile version