Μέσα στο deepfake σκάνδαλο της Taylor Swift – «Άντρες λένε σε μια ισχυρή γυναίκα να μαζευτεί»
Το πορνό που δημιουργείται από τεχνητή νοημοσύνη, τροφοδοτούμενο από μισογυνισμό, κατακλύζει το διαδίκτυο, με την Taylor Swift να είναι το τελευταίο θύμα.
- Μπακογιάννη: Η Σακελλαροπούλου θα μπορούσε να προταθεί για την Προεδρία της Δημοκρατίας
- Εργαζόμενοι στο αεροδρόμιο του Σικάγο έπαιξαν ξύλο με... τις πινακίδες «προσοχή βρεγμένο δάπεδο»
- «Πρέπει να κάνουν δήλωση ότι σέβονται το πολίτευμα» - Οι όροι για να πάρουν την ιθαγένεια οι Γλύξμπουργκ
- Τα ζώδια σήμερα: Το μάτι μου με κοίταγε
Για σχεδόν μια ολόκληρη ημέρα την περασμένη εβδομάδα, οι deepfake πορνογραφικές εικόνες της Taylor Swift εξαπλώθηκαν ραγδαία μέσω του X. Η πλατφόρμα κοινωνικής δικτύωσης, πρώην Twitter, άργησε τόσο πολύ να αντιδράσει που μια εικόνα συγκέντρωσε 47 εκατομμύρια προβολές πριν κατέβει. Ήταν κυρίως οι θαυμαστές της Swift που κινητοποιήθηκαν και ανέφεραν μαζικά τις εικόνες και υπήρξε μια αίσθηση δημόσιας οργής, με ακόμη και τον Λευκό Οίκο να το χαρακτηρίζει «ανησυχητικό».
Το X τελικά αφαίρεσε τις εικόνες και μπλόκαρε τις αναζητήσεις στο όνομα της ποπ σταρ το βράδυ της Κυριακής.
Για τις γυναίκες που έχουν πέσει θύματα της δημιουργίας και της ανταλλαγής μη συναινετικής ψεύτικης πορνογραφίας, τα γεγονότα της περασμένης εβδομάδας θα ήταν μια φρικτή υπενθύμιση της δικής τους κακοποίησης, ακόμη και αν ελπίζουν ότι το φως της δημοσιότητας θα αναγκάσει τους νομοθέτες να αναλάβουν δράση.
Αλλά επειδή οι εικόνες αφαιρέθηκαν, η εμπειρία της Swift απέχει πολύ από τον κανόνα. Τα περισσότερα θύματα, ακόμη και αυτά που είναι διάσημα, είναι λιγότερο τυχερά. Η 17χρονη ηθοποιός της Marvel Xochitl Gomez μίλησε αυτό το μήνα για την αποτυχία του X να αφαιρέσει τα πορνογραφικά deepfakes της. «Αυτό δεν έχει καμία σχέση με εμένα. Και όμως είμαι εδώ με το πρόσωπό μου», είπε.
Ακόμη και αν οι εικόνες δεν είναι ιδιαίτερα ρεαλιστικές, «είναι και πάλι ικανές να προκαλέσουν ανεπανόρθωτη βλάβη σε ένα άτομο»
Δείτε το σχετικό βίντεο
Τις καθημερινές γυναίκες δεν τις νοιάζεται κανείς
Η Noelle Martin είναι επιζήσασα της κακοποίησης με βάση την εικόνα, ένας όρος που καλύπτει την ανταλλαγή μη συναινετικών σεξουαλικών εικόνων και ρητών deepfakes. Ανακάλυψε για πρώτη φορά ότι το πρόσωπό της χρησιμοποιήθηκε σε πορνογραφικό περιεχόμενο πριν από 11 χρόνια. «Οι καθημερινές γυναίκες σαν εμένα δεν έχουν εκατομμύρια ανθρώπους που εργάζονται για να μας προστατεύσουν και να βοηθήσουν στην κατάργηση του περιεχομένου», λέει.
Η Martin, ακτιβίστρια και ερευνήτρια στο Tech & Policy Lab του Πανεπιστημίου της Δυτικής Αυστραλίας, λέει ότι στην αρχή ήταν παραποιημένες φωτογραφίες της, αλλά τα τελευταία χρόνια, καθώς η εχνητή νοημοσύνη γνωρίζει μεγάλη ανάπτυξη, είναι βίντεο, τα οποία μοιράζονται κυρίως σε πορνογραφικούς ιστότοπους. «Είναι αηδιαστικό, σοκαριστικό», λέει. «Προσπαθώ να μην τα βλέπω. Με πονάει πολύ».
Ακόμη και αν οι εικόνες δεν είναι ιδιαίτερα ρεαλιστικές, «είναι και πάλι ικανές να προκαλέσουν ανεπανόρθωτη βλάβη σε ένα άτομο», λέει. «Η απόσυρση και η αφαίρεση είναι μια μάταιη διαδικασία. Είναι μια δύσκολη μάχη, και ποτέ δεν μπορείς να εγγυηθείς την πλήρη απομάκρυνσή της από τη στιγμή που κάτι βρίσκεται εκεί έξω. Είναι μια αναπόφευκτη μορφή κακοποίησης, που έχει συνέπειες που λειτουργούν στο διηνεκές». Η Martin έχει αναγκαστεί να το αναφέρει σε συνεντεύξεις για δουλειά. «Είναι κάτι για το οποίο πρέπει να μιλήσεις στα πρώτα ραντεβού. Παραβιάζει κάθε πτυχή της ζωής σου».
Μια μελέτη του 2019 από την εταιρεία κυβερνοασφάλειας Deeptrace διαπίστωσε ότι το 96% του διαδικτυακού περιεχομένου βίντεο deepfake ήταν μη συναινετικής πορνογραφίας
Ακραίος μισογυνισμός
Όταν η ακτιβίστρια και συγγραφέας Laura Bates δημοσίευσε το βιβλίο της Men Who Hate Women, μια έρευνα για τους βόθρους του διαδικτυακού μισογυνισμού, οι άνδρες της έστελναν εικόνες που έκαναν να φαίνεται ότι η Bates εκτελούσε «όλα τα είδη σεξουαλικών πράξεων, συμπεριλαμβανομένων ατόμων που μου έστελναν εικόνες του εαυτού μου αλλαγμένες ώστε να φαίνεται ότι τους έκανα στοματικό σεξ».
Είναι δύσκολο για τους ανθρώπους να καταλάβουν τον αντίκτυπο, λέει, ακόμη και όταν ξέρεις ότι δεν είναι αληθινό. «Υπάρχει κάτι πραγματικά ενστικτώδες στο να βλέπεις μια απίστευτα υπερρεαλιστική εικόνα του εαυτού σου στην ακραία μισογυνική φαντασίωση κάποιου για σένα», λέει. «Υπάρχει κάτι πραγματικά εξευτελιστικό σε αυτό, πολύ ταπεινωτικό. Σου μένει στο μυαλό». Και αυτή η εικόνα μπορεί να μοιραστεί ενδεχομένως με εκατομμύρια ανθρώπους, προσθέτει.
Οι Deepfake πορνογραφικές εικόνες και βίντεο, λέει η Bates, «κυκλοφορούν απολύτως μέσα σε εξτρεμιστικές μισογυνιστικές κοινότητες». Αυτό που ήταν ιδιαίτερα αξιοσημείωτο για την περίπτωση της Swift ήταν «πόσο πολύ τους επιτρεπόταν να κυκλοφορούν και στις κύριες πλατφόρμες κοινωνικής δικτύωσης. Ακόμη και όταν στη συνέχεια αναλαμβάνουν δράση και ισχυρίζονται ότι το κλείνουν, μέχρι τότε οι εικόνες αυτές έχουν εξαπλωθεί σε τόσες άλλες χιλιάδες φόρουμ και ιστότοπους».
Νέος τρόπος ελέγχου των γυναικών
Μια μελέτη του 2019 από την εταιρεία κυβερνοασφάλειας Deeptrace διαπίστωσε ότι το 96% του διαδικτυακού περιεχομένου βίντεο deepfake ήταν μη συναινετικής πορνογραφίας. Όταν η συντριπτική πλειονότητα της τεχνητής νοημοσύνης χρησιμοποιείται για τη δημιουργία deepfake πορνογραφίας, επισημαίνει, «αυτό δεν είναι ένα εξειδικευμένο πρόβλημα».
Είναι, λέει, «απλώς ο νέος τρόπος ελέγχου των γυναικών. Παίρνεις κάποια σαν τη Σουίφτ, η οποία είναι εξαιρετικά επιτυχημένη και ισχυρή, και είναι ένας τρόπος να τη βάλεις πίσω στο κουτί της. Είναι ένας τρόπος να πεις σε κάθε γυναίκα: δεν έχει σημασία ποια είσαι, πόσο ισχυρή είσαι – μπορούμε να σε υποβιβάσουμε σε σεξουαλικό αντικείμενο και δεν μπορείς να κάνεις τίποτα γι’ αυτό».
Από αυτή την άποψη, δεν είναι κάτι καινούργιο, λέει η Bates, «αλλά είναι η διευκολυνόμενη εξάπλωση αυτής της συγκεκριμένης μορφής παθολογικού μισογυνισμού που θα πρέπει να μας ανησυχεί, και το πόσο ομαλοποιημένη και αποδεκτή είναι».
Μια μορφή σεξουαλικής κακοποίησης
Γνωρίζουμε, λέει η Rani Govender, ανώτερη υπεύθυνη πολιτικής και δημοσίων σχέσεων στο NSPCC, «ότι αυτό είναι ένα θέμα που επηρεάζει απόλυτα τους νέους. Με τον ίδιο τρόπο που λειτουργούν και άλλες μορφές σεξουαλικής κακοποίησης με βάση την εικόνα, επηρεάζει ιδιαίτερα τα κορίτσια».
Έχουν υπάρξει περιπτώσεις παιδιών που δημιουργούν σαφείς εικόνες deepfake άλλων παιδιών, συχνά χρησιμοποιώντας εφαρμογές που «γδύνουν» ένα θέμα σε μια φωτογραφία. «Στη συνέχεια, αυτό στέλνεται στα σχολεία και χρησιμοποιείται ως μορφή σεξουαλικής παρενόχλησης και εκφοβισμού. Ο φόβος είναι ένα θέμα που εμφανίζεται συχνά: η ανησυχία ότι οι άνθρωποι θα νομίζουν ότι είναι αληθινό, ότι μπορεί να οδηγήσει σε περαιτέρω σεξουαλική παρενόχληση και εκφοβισμό. Υπάρχει ανησυχία για το τι μπορεί να σκεφτούν οι γονείς τους».
Ένα 14χρονο κορίτσι δήλωσε πέρυσι στην υπηρεσία ChildLine της NSPCC ότι μια ομάδα αγοριών έφτιαξε ψεύτικες σεξουαλικές εικόνες της ίδιας και άλλων κοριτσιών και τις έστειλε σε ομαδικές συνομιλίες. Τα αγόρια αποκλείστηκαν από το σχολείο για ένα διάστημα, αλλά επέστρεψαν.
Ένα άλλο κορίτσι, 15 ετών, δήλωσε ότι ένας άγνωστος είχε πάρει φωτογραφίες από τον λογαριασμό της στο Instagram και έφτιαξε ψεύτικα γυμνά της, χρησιμοποιώντας την πραγματική της κρεβατοκάμαρα ως φόντο.
«Είναι ένας τρόπος να πεις σε κάθε γυναίκα: δεν έχει σημασία ποια είσαι, πόσο ισχυρή είσαι – μπορούμε να σε υποβιβάσουμε σε σεξουαλικό αντικείμενο και δεν μπορείς να κάνεις τίποτα γι’ αυτό»
Είναι απλά πολύ εύκολο
Η Govender λέει ότι αυτού του είδους το υλικό δημιουργείται από αγνώστους στο διαδίκτυο ως μέρος μιας διαδικασίας grooming ή μπορεί να χρησιμοποιηθεί για να εκβιάσει και να απειλήσει παιδιά.
Η τεχνητή νοημοσύνη έχει επίσης χρησιμοποιηθεί για τη δημιουργία εικόνων σεξουαλικής κακοποίησης παιδιών, οι οποίες μοιράζονται και πωλούνται από τους δράστες. Ακόμα και τα παιδιά που δεν έχουν στοχοποιηθεί εξακολουθούν να είναι ευάλωτα στο να δουν την εξάπλωση της deepfake πορνογραφίας.
«Υπάρχει ήδη μια μεγάλη πρόκληση με το πόσο σαφές και πορνογραφικό υλικό είναι εύκολα διαθέσιμο στα παιδιά στους ιστότοπους κοινωνικής δικτύωσης», λέει η Govender. «Αν γίνεται όλο και πιο εύκολη η παραγωγή και ο διαμοιρασμός αυτού του υλικού, αυτό θα έχει πραγματικά αρνητικές επιπτώσεις και στις απόψεις των παιδιών για τη σοβαρότητα αυτών των εικόνων».
Η λέξη deepfake – που χρησιμοποιείται πλέον ως γενικός όρος για να περιγράψει οποιαδήποτε ψηφιακά επεξεργασμένη εικόνα ή βίντεο που μπορεί να μοιάζει πειστικά αληθινό – επινοήθηκε αρχικά για να αναφέρεται στην πορνογραφία, επισημαίνει ο Henry Ajder, ειδικός στα deepfakes και την τεχνητή νοημοσύνη, ο οποίος ερευνά το θέμα εδώ και χρόνια και έχει συμβουλεύσει τη βρετανική κυβέρνηση σχετικά με τη νομοθεσία.
Υπάρχει οικονομικό κίνητρο;
«Ναι και όχι», λέει ο Ajder. «Ορισμένοι ιστότοποι έχουν σίγουρα επωφεληθεί, είτε μέσω διαφημιστικών εσόδων είτε μέσω χρέωσης για τις εικόνες».
«Το πλήθος των ανθρώπων που ακούω τώρα στα σχολεία και σε εργασιακά περιβάλλοντα, οι οποίοι πέφτουν θύματα αυτού του φαινομένου δεν προκαλεί έκπληξη, αλλά εξακολουθεί να είναι απίστευτα ανησυχητικό» λέει ο Ajder. «Αν και είναι λυπηρό το γεγονός ότι χρειάστηκε να στοχοποιηθεί μία από τις μεγαλύτερες διασημότητες στον κόσμο για να αναγνωρίσουν οι άνθρωποι πόσο μεγάλο πρόβλημα είναι αυτό, η ελπίδα μου είναι ότι αυτό μπορεί να αποτελέσει καταλύτη για ουσιαστική νομοθετική αλλαγή».
Θα πρέπει να είναι «πολύ σαφές», λέει ο Ajder, «ότι αν δημιουργείτε ή μοιράζεστε ή εμπλέκεστε με αυτού του είδους το περιεχόμενο, είστε ουσιαστικά σεξουαλικός παραβάτης. Διαπράττετε σεξουαλικό αδίκημα κατά ενός άλλου ανθρώπου».
Η τεχνητή νοημοσύνη είναι σαφές ότι θα βελτιωθεί και θα γίνει πιο εύκολα διαθέσιμη, με τις ανησυχίες σχετικά με τις ψεύτικες ειδήσεις, τις απάτες και τις εκστρατείες παραπληροφόρησης που κλονίζουν τη δημοκρατία, αλλά με την πορνογραφία deepfake, η ζημιά έχει ήδη γίνει.
«Είναι κάπως μοναδικό, σε σύγκριση με ορισμένες από τις άλλες απειλές που δημιουργεί το περιεχόμενο που παράγεται από την ΤΝ, στο ότι δεν χρειάζεται να είναι υπερρεαλιστικό για να εξακολουθεί να προκαλεί ζημιά», λέει ο Ajder. «Μπορεί να είναι ξεκάθαρα ψεύτικο και παρόλα αυτά να είναι τραυματικό και ταπεινωτικό. Είναι ήδη πολύ ισχυρό».
*Με στοιχεία από theguardian.com
Ακολουθήστε το in.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις