Deepfake: Οδηγούν σε νέο κύμα απάτης – Πώς μπορούν να παραβιάσουν τους τραπεζικούς λογαριασμούς
Ο αριθμός των επιθέσεων απάτης με χρήση deepfakes αυξήθηκε 31 φορές μεταξύ 2022 και 2023, σύμφωνα με μια έκθεση της εταιρείας επαλήθευσης Onfido
- Συγκλονίζει ο 95χρονος γιατρός του Πολυτεχνείου: Καμιά αμφιβολία για τους νεκρούς – Πολλοί τραυματίστηκαν από σφαίρες
- Πώς υποδέχτηκαν την επικοινωνία Σολτς - Πούτιν σε Λονδίνο και Παρίσι - Κινήσεις τακτικής στην σκακιέρα
- «Δεν θα καλύπτω εγώ τους πάντες, θα πω τα πράγματα με το όνομά τους» λέει η Ειρήνη
- Παρέλαση μασκοφόρων ενόπλων νεοναζί στο Οχάιο
Το Deepfake βλέπει ένα άτομο να παίρνει το πρόσωπο ή ακόμα και τη φωνή ενός άλλου ψηφιακά, που σημαίνει ότι μπορεί να τραβήξει φωτογραφίες και βίντεο σαν να ήταν το άτομο που έχει αντιγράψει. Είναι ουσιαστικά ένα φίλτρο.
Το ζευγάρι μάτια που την κοίταζαν από την οθόνη του υπολογιστή ήταν αναμφισβήτητα δικά της.
Το περίεργο όμως είναι ότι δεν ήταν εκείνη αυτή που στεκόταν μπροστά στην κάμερα.
Τι συνέβη; Πλαστογραφήθηκε, μια διαδικασία που η τεχνολογία έχει κάνει τόσο εύκολη. Μια φωτογραφία της τραβήχτηκε με ένα smartphone και δευτερόλεπτα αργότερα, οποιοσδήποτε στο εργαστήριο θα μπορούσε να γίνει εκείνη – τουλάχιστον διαδικτυακά.
Καθώς περισσότερο από το προσωπικό του εργαστηρίου «απάτης» κινείται για να σταθεί μπροστά στην κάμερα, εμφανίζονται περισσότερες εκδοχές του προσώπου της δημοσιογράφου του Telegraph, η οποία επιχειρεί να καταλάβει πως λειτουργεί το Deepfake.
Όπως τα φίλτρα στα social media
Είναι πολύ ανησυχητικό, αλλά η τεχνολογία δεν είναι άγνωστη. Η χρήση φίλτρων στο Snapchat και στο TikTok για να αλλάζουμε την εμφάνισή μας, είναι συνηθισμέμη.
Ο αριθμός των επιθέσεων απάτης με χρήση deepfakes αυξήθηκε 31 φορές μεταξύ 2022 και 2023, σύμφωνα με μια έκθεση της εταιρείας επαλήθευσης Onfido
Χρησιμοποιώντας deep fake εικόνες, οι απατεώνες μπορούν να παρακάμψουν μια διαδικασία επαλήθευσης ταυτότητας και να δημιουργήσουν τραπεζικούς λογαριασμούς με πλαστά ονόματα, μέσω των οποίων μπορούν να μετακινήσουν βρώμικα χρήματα.
Όταν στέκεστε στο δωμάτιο μπροστά από την οθόνη, είναι εύκολο να ξεχωρίσετε ποιος είναι το πραγματικό πρόσωπο, αλλά χωρίς την άμεση σύγκριση, η ανίχνευση των deepfakes γίνεται ξαφνικά πολύ πιο δύσκολη.
Με εικόνες που ελήφθησαν από τα μέσα κοινωνικής δικτύωσης και ένα τυχαίο έγγραφο ταυτότητας, οι απατεώνες θα μπορούσαν πολύ εύκολα να πάρουν την ταυτότητά κάποιου και ακόμη και να διεισδύσουν στους τραπεζικούς μου λογαριασμούς, χωρίς τη γνώση ή τη συγκατάθεσή του κατόχου.
Αλλά δεν είναι μόνο οι απατεώνες που χρησιμοποιούν τεχνολογία deepfake στην καθημερινή τους ζωή.
Άτομα που αναζητούν εργασία έχουν κάνει συνεντεύξεις για φίλους που «φορούν» το πρόσωπό τους – αν και οι περισσότεροι τελικά πιάνονται από τους υπαλλήλους προσλήψεων.
Η πορνογραφία αποτελεί το 98% όλων των deepfake βίντεο, σύμφωνα με αναφορά State of Deepfakes του 2023 από το Home Security Heroes και ο αριθμός των βίντεο στο διαδίκτυο έχει αυξηθεί κατά 550% από το 2018.
Το μόνο που χρειάζεστε είναι μια εφαρμογή
Η εφαμορφή deepfake βρίσκεται σε όλα τα Stores των smart phones.
Όσο πιο εξελιγμένο είναι το deepfake – όσο περισσότερες φωτογραφίες βασίζεται – τόσο πιο δύσκολο είναι να εντοπιστεί. Για τους ειδικούς της απάτης, αυτό είναι ένας εφιάλτης.
Οι χρήστες λαμβάνουν οδηγίες να τραβήξουν μια φωτογραφία, η οποία συγκρίνεται με μια εικόνα του διαβατηρίου ή της άδειας οδήγησης ή με ένα βίντεο που γυρίζει το κεφάλι τους από τη μια πλευρά στην άλλη.
Ο Simon Horswell, ειδικός σε θέματα απάτης , λέει: «Το 2021 δεν το γνωρίζαμε. Θα είχαμε κυριολεκτικά μια χούφτα απόπειρες deepfake.
Και προσθέτει: «Αλλά επειδή έχει γίνει πολύ πιο προσιτό και οι τεχνικές γνώσεις που απαιτούνται για τη χρήση αυτών των εργαλείων έχουν μειωθεί τόσο πολύ, έχουμε δει αυτήν την τεράστια αύξηση, με την πάροδο του χρόνου».
Ακολουθήστε το in.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις