Ηθοποιοί παίζουν εν αγνοία τους σε πορνό χάρη στην τεχνητή νοημοσύνη
Μετά τις ψευδείς ειδήσεις (fake news) έρχονται τα ψευδή βίντεο (fake videos). Η τεχνολογία της μηχανικής μάθησης άρχισε ήδη να χρησιμοποιείται για να δημιουργηθούν πορνό βιντεοκλίπ, στα οποία πρωταγωνιστούν διάσημες ηθοποιοί του Χόλιγουντ και τραγουδίστριες της ποπ.
- Ανοιχτά τα μαγαζιά σήμερα - Κορυφώνεται η κίνηση, τι να προσέχουμε όταν αγοράζουμε παιχνίδια και τρόφιμα
- Πώς διαμορφώνονται οι τιμές από το χωράφι στο ράφι
- Χριστουγεννιάτικα μπισκοτάκια για τον σκύλο και τη γάτα μας – Εύγευστες συνταγές
- Ο Τραμπ διορίζει τον παραγωγό του «Apprentice», ως ειδικό απεσταλμένο στη Μεγάλη Βρετανία
Μετά τις ψευδείς ειδήσεις (fake news) έρχονται τα ψευδή βίντεο (fake videos). Η τεχνολογία της μηχανικής μάθησης άρχισε ήδη να χρησιμοποιείται για να δημιουργηθούν πορνό βιντεοκλίπ, στα οποία πρωταγωνιστούν διάσημες ηθοποιοί του Χόλιγουντ και τραγουδίστριες της ποπ.
Η τεχνητή νοημοσύνη αντικαθιστά τα πρόσωπα των πραγματικών πρωταγωνιστριών των πορνό φιλμ με εκείνα των ηθοποιών και των τραγουδιστριών.
Έτσι, η Σκάρλετ Γιόχανσον, η Έμα Ουότσον, η Τέιλορ Σουίφτ, η Γκαλ Γκαντότ (Wonder Woman), η Μέιζι Ουίλιαμς (Game of Thrones), η Ντέιζι Ρίντλεϊ (Star Wars) και άλλα «αστέρια» έχουν βρεθεί εν αγνοία τους να κάνουν ακατονόμαστα πράγματα προς τέρψη των χρηστών του διαδικτύου, στους οποίους διανέμονται αυτές οι «δημιουργίες».
Τα βιντεοκλίπ είναι συχνά τόσο καλά, που δεν διακρίνονται από μια κανονική πορνοταινία.
Μια ομάδα στον διαδικτυακό τόπο Reddit έχει αφιερώσει μήνες για τη δημιουργία και την εξάπλωση αυτών των ψευδο-πορνοφίλμ, σύμφωνα με τον Guardian. Ο «πρωτοπόρος» υπήρξε κάποιος με το όνομα deepfake.
Τέτοιες πιο ερασιτεχνικές αντικαταστάσεις προσώπων προσφέρουν διάφορες εφαρμογές όπως το Snapchat, αλλά η ποιότητα της δουλειάς του deepfake και των μιμητών του κινείται σε ανώτερο επίπεδο χάρη στο «χεράκι» που έχει βάλει η προχωρημένη τεχνητή νοημοσύνη.
Άλλωστε, οι δυνατότητες της τεχνολογίας, έχουν φανεί από το γεγονός ότι ανάλογες αντικαταστάσεις προσώπων (όχι πορνό) έχουν γίνειαπό ερευνητές σε ειδησεογραφικά βίντεο μεδιασημότητες της πολιτικής επικαιρότητας.
Ένας άλλος χρήστης του Reddit, ο deepfakeapp, κυκλοφόρησε μια εφαρμογή για υπολογιστή, η οποία επιτρέπει σε κάθε χρήστη να δημιουργήσει το δικό του «πονηρό» βιντεοκλίπ. Αν και δεν είναι εύκολη στη χρήση της, καθώς απαιτεί οκτώ έως 12 ώρες επεξεργασίας για να παραχθεί ένα σύντομο «κλιπ», η εφαρμογή έδωσε ώθηση σε μια νέα γενιά «δημιουργών».
Ο deepfakeapp έκανε λόγο σε ανάρτησή του στο Motherboard για «μια καλή αρχή» και υποσχέθηκε «νέες βελτιώσεις τις επόμενες μέρες και εβδομάδες». Όπως ανέφερε, «τελικά, θέλω να τη βελτιώσω σε σημείο που οι χρήστες να μπορούν να διαλέγουν ένα βίντεο στον υπολογιστή τους, να ‘κατεβάζουν’ από μία ελεύθερα προσβάσιμη βιβλιοθήκη ένα νευρωνικό (υπολογιστικό) δίκτυο που σχετίζεται με ένα συγκεκριμένο πρόσωπο και μετά να αντικαθιστούν το πρόσωπο του βίντεο με το πάτημα ενός κουμπιού». Τόσο απλά!
Η ευκολία αυτή ήδη δημιουργεί ανησυχίες ότι στο μέλλον δεν θα μπορεί κανείς να εμπιστευθεί όχι μόνο την αξιοπιστία πολλών ειδήσεων, αλλά ούτε των ταινιών ή εν γένει οποιουδήποτε βιντεοσκοπημένου υλικού.
ΑΠΕ-ΜΠΕ,in.gr
Ακολουθήστε το in.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις