Deepfakes, ένα όπλο μαζικής εξαπάτησης σε χρονιά εκλογών;
Το 2024 είναι χρονιά εκλογών για σχεδόν το ένα τέταρτο του παγκόσμιου πληθυσμού
- Πώς τα δεδομένα που συλλέγει η Ουκρανία θα εκπαιδεύσουν την ΑΙ του πολέμου
- Ακριβότερο και φέτος το Χριστουγεννιάτικο τραπέζι - Αναλυτικοί πίνακες
- Επίθεση με μαχαίρι σε δημοτικό σχολείο στο Ζάγκρεμπ - Ένας μαθητής νεκρός και 7 τραυματίες
- Ολα όσα πρέπει να ξέρετε για το πρόγραμμα «Σπίτι μου 2» – Οδηγός με 32 ερωταπαντήσεις
Το 2024, εκτιμάται ότι περίπου το ένα τέταρτο του παγκόσμιου πληθυσμού θα προσέλθει στις κάλπες. Αυτό αυξάνει τις ανησυχίες για πιθανή παραπληροφόρηση και απάτες, οι οποίες ενδέχεται να αξιοποιήσουν την τεχνητή νοημοσύνη. Κακόβουλοι φορείς μπορούν να χρησιμοποιήσουν αυτά τα μέσα για να επηρεάσουν τα αποτελέσματα των εκλογών, ενώ εμπειρογνώμονες εκφράζουν φόβους για τις επιπτώσεις της γενικευμένης χρήσης των deepfakes, προειδοποιεί ο Φιλ Μανκάστερ από την ομάδα της παγκόσμιας εταιρίας ψηφιακής ασφάλειας ESET.
Σχεδόν δύο δισεκατομμύρια άνθρωποι θα πάνε στις κάλπες φέτος για να ψηφίσουν τους αντιπροσώπους και τους ηγέτες που προτιμούν. Σημαντικές εκλογικές αναμετρήσεις θα διεξαχθούν σε πολλές χώρες, όπως στις ΗΠΑ, το Ηνωμένο Βασίλειο και την Ινδία. Επίσης το 2024, θα πραγματοποιηθούν οι εκλογές για το Ευρωπαϊκό Κοινοβούλιο. Αυτές οι εκλογικές αναμετρήσεις μπορεί να αλλάξουν το πολιτικό τοπίο και την κατεύθυνση της γεωπολιτικής για τα επόμενα χρόνια – και όχι μόνο.
Από τη θεωρία στην πράξη
Είναι ανησυχητικό ότι τα deepfakes είναι πιθανό να επηρεάσουν τους ψηφοφόρους. Τον Ιανουάριο του 2024, ένα deepfake ηχητικό μήνυμα του προέδρου των ΗΠΑ Τζο Μπάιντεν κυκλοφόρησε μέσω ρομποτικής κλήσης σε άγνωστο αριθμό ψηφοφόρων των προκριματικών εκλογών στο Νιου Χαμσάιρ. Το μήνυμα καλούσε τους ψηφοφόρους να μην προσέλθουν στις κάλπες και αντ’ αυτού να “φυλάξουν την ψήφο τους για τις εκλογές του Νοεμβρίου”. Ο αριθμός αναγνώρισης κλήσης που εμφανιζόταν ήταν επίσης πλαστογραφημένος ώστε να φαίνεται ότι το αυτοματοποιημένο μήνυμα στάλθηκε από τον προσωπικό αριθμό της Kathy Sullivan, πρώην προέδρου του Δημοκρατικού Κόμματος της πολιτείας, η οποία τώρα ηγείται μιας επιτροπής για τη στήριξη της υποψηφιότητας Τζο Μπάιντεν.
Δεν είναι δύσκολο να καταλάβει κανείς πώς τέτοιες κλήσεις θα μπορούσαν να χρησιμοποιηθούν για να αποτρέψουν τους ψηφοφόρους να προσέλθουν στις κάλπες για να ψηφίσουν τον υποψήφιο της προτίμησής τους ενόψει των προεδρικών εκλογών του Νοεμβρίου. Ο κίνδυνος θα είναι μεγάλος σε αμφίρροπες εκλογικές αναμετρήσεις, όπου η μετατόπιση ενός μικρού αριθμού ψηφοφόρων από τη μία πλευρά στην άλλη καθορίζει το αποτέλεσμα. Μια τέτοια στοχευμένη εκστρατεία θα μπορούσε να προκαλέσει ανυπολόγιστη ζημιά επηρεάζοντας μερικές χιλιάδες ψηφοφόρους σε σημαντικές πολιτείες που ενδέχεται να κρίνουν το αποτέλεσμα των εκλογών.
Η απειλή παραπληροφόρησης μέσω deepfake
Η παραπληροφόρηση και αποπληροφόρηση κατατάχθηκαν πρόσφατα από το Παγκόσμιο Οικονομικό Φόρουμ (WEF) ως ο νούμερο ένα παγκόσμιος κίνδυνος για τα επόμενα δύο χρόνια. Η έκθεση προειδοποιεί: “Το συνθετικό περιεχόμενο θα χειραγωγήσει τα άτομα, θα βλάψει τις οικονομίες και θα διασπάσει τις κοινωνίες με πολυάριθμους τρόπους κατά τα επόμενα δύο χρόνια … υπάρχει ο κίνδυνος ορισμένες κυβερνήσεις να δράσουν πολύ αργά, αντιμετωπίζοντας ένα συμβιβασμό μεταξύ της αποτροπής της παραπληροφόρησης και της προστασίας της ελευθερίας του λόγου”.
(Deep)faking it
Εργαλεία όπως το ChatGPT και η δημιουργική Τεχνητή Νοημοσύνη (GenAI) έδωσαν τη δυνατότητα σε ένα ευρύτερο σύνολο ατόμων να συμμετάσχουν στη δημιουργία εκστρατειών παραπληροφόρησης με τη χρήση της τεχνολογίας. Με τη βοήθεια της τεχνητής νοημοσύνης οι κακόβουλοι φορείς έχουν περισσότερο χρόνο να εργαστούν πάνω στα μηνύματά τους, ενισχύοντας τις προσπάθειες τους για να διασφαλίσουν ότι το ψεύτικο περιεχόμενό τους θα δημοσιευτεί και θα ακουστεί.
Στο πλαίσιο των εκλογικών αναμετρήσεων, τα deepfakes θα μπορούσαν προφανώς να χρησιμοποιηθούν για να διαβρώσουν την εμπιστοσύνη των ψηφοφόρων σε έναν συγκεκριμένο υποψήφιο. Εξάλλου, είναι ευκολότερο να πείσεις κάποιον να μην κάνει κάτι παρά το αντίθετο. Εάν οι υποστηρικτές ενός πολιτικού κόμματος ή υποψηφίου μπορούν να επηρεαστούν κατάλληλα από ψεύτικα ηχητικά αρχεία ή βίντεο, αυτό θα έδινε μια σίγουρη νίκη στους αντιπάλους. Σε ορισμένες περιπτώσεις, τα κράτη-παρίες μπορεί να επιδιώξουν να υπονομεύσουν την εμπιστοσύνη στη δημοκρατική διαδικασία, ώστε όποιος κερδίσει να δυσκολευτεί να κυβερνήσει.
Στο επίκεντρο της διαδικασίας βρίσκεται μια απλή αλήθεια: όταν οι άνθρωποι επεξεργάζονται πληροφορίες, τείνουν να εκτιμούν την ποσότητα και την ευκολία κατανόησης. Αυτό σημαίνει ότι όσο περισσότερο περιεχόμενο βλέπουμε με παρόμοιο μήνυμα και όσο πιο εύκολο είναι να το κατανοήσουμε, τόσο μεγαλύτερη είναι η πιθανότητα να το πιστέψουμε. Αυτός είναι ο λόγος για τον οποίο οι εκστρατείες μάρκετινγκ αποτελούνται από σύντομα και συνεχώς επαναλαμβανόμενα μηνύματα. Προσθέστε σε αυτό το γεγονός ότι η διάκριση των deepfakes από το πραγματικό περιεχόμενο γίνεται όλο και πιο δύσκολη, και έχετε μια πιθανή συνταγή για την καταστροφή της δημοκρατίας.
Τι κάνουν οι εταιρείες τεχνολογίας γι’ αυτό;
Τόσο το YouTube όσο και το Facebook ανταποκρίθηκαν αργά σε ορισμένα deepfakes που είχαν στόχο να επηρεάσουν πρόσφατες εκλογές. Αυτό συμβαίνει παρά τη νέα νομοθεσία της Ευρωπαϊκής Ένωσης (Digital Services Act) που απαιτεί από τις εταιρείες μέσων κοινωνικής δικτύωσης να πατάξουν τις απόπειρες χειραγώγησης των εκλογών.
Από την πλευρά της, η OpenAI δήλωσε ότι θα εφαρμόσει τα ψηφιακά διαπιστευτήρια του Συνασπισμού για την Απόδειξη και την Αυθεντικότητα του Περιεχομένου (C2PA) για τις εικόνες που παράγονται από το DALL-E 3. Η τεχνολογία κρυπτογραφικής υδατογράφησης – που δοκιμάζεται επίσης από τη Meta και τη Google – έχει σχεδιαστεί για να καταστήσει δυσκολότερη την παραγωγή πλαστών εικόνων.
Ωστόσο, πρόκειται για μικρά βήματα και υπάρχουν δικαιολογημένες ανησυχίες ότι η απάντηση στην απειλή δεν θα είναι αρκετή και θα έρθει με καθυστέρηση, καθώς ο πυρετός των εκλογών κατακλύζει τον πλανήτη. Ειδικά όταν η διάδοση των deepfakes γίνεται σε σχετικά κλειστά δίκτυα, σε ομάδες WhatsApp ή μέσω τηλεφωνικών κλήσεων, θα είναι δύσκολο να εντοπιστεί και να διαψευστεί γρήγορα κάθε πλαστό ηχητικό αρχείο ή βίντεο.
Η θεωρία της “προκατάληψης της αγκύρωσης” υποδηλώνει ότι η πρώτη πληροφορία που ακούν οι άνθρωποι είναι αυτή που μένει στο μυαλό τους, ακόμη και αν αποδειχθεί ψευδής, λέει ο Μανκάστερ από την ESET. Αν οι deepfakers προσεγγίσουν πρώτοι στους ψηφοφόρους που αμφιταλαντεύονται, κανείς δεν γνωρίζει ποιος θα είναι ο τελικός νικητής. Στην εποχή των μέσων κοινωνικής δικτύωσης και της παραπληροφόρησης, η ρήση του περίφημου Άγγλο-Ιρλανδού πολιτικού αρθρογράφου, κληρικού και σατιρικού συγγραφέα του 18ου αιώνα Jonathan Swift “το ψέμα καλπάζει και η αλήθεια έρχεται ασθμαίνοντας πίσω του” αποκτά ένα εντελώς καινούργιο νόημα.
Πηγή: ΟΤ
Ακολουθήστε το in.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις