OpenAI: Ομάδες από Ρωσία, Κίνα και Ισραήλ χρησιμοποίησαν AI για εκστρατείες παραπληροφόρησης
Οι καμπάνιες επιρροής εστίαζαν στην ρωσική εισβολή στην Ουκρανία, τον πόλεμο στη Λωρίδα της Γάζας και τις πολιτικές εξελίξεις σε ΗΠΑ και Ευρώπη, μεταξύ άλλων.
Η αμερικανική OpenAI, δημιουργός της μηχανής διαλόγου ChatGPT, ανακοίνωσε ότι σταμάτησε πέντε καμπάνιες παραπληροφόρησης που επιχείρησαν να χρησιμοποιήσουν τα εργαλεία τεχνητής νοημοσύνης της για «παραπλανητικές δραστηριότητες» στο Διαδίκτυο.
Οι υπηρεσίες της OpenAI χρησιμοποιήθηκαν το τελευταίο τρίμηνο για τη σύνταξη παραπλανητικών αναρτήσεων και άλλων κειμένων σε διάφορες γλώσσες, καθώς και για την παραγωγή ψεύτικων ονομάτων και βιογραφικών σημειωμάτων σε λογαριασμούς social media, ανέφερε η εταιρεία.
Οι καμπάνιες προέρχονταν από τη Ρωσία, την Κίνα, το Ιράν και εστίαζαν στην ρωσική εισβολή στην Ουκρανία, τον πόλεμο στη Λωρίδα της Γάζας, τις εκλογές στην Ινδία και τις πολιτικές εξελίξεις σε ΗΠΑ και Ευρώπη, μεταξύ άλλων.
H εταιρεία μπλόκαρε επίσης την ισραηλινή εταιρεία Stoic που παρήγαγε άρθρα και σχόλια για το Instagram, το Facebook, το X και άλλες πλατφόρμες.
Σε όλες τις περιπτώσεις στόχος ήταν η «χειραγώγηση της κοινής γνώμης» και η άσκηση «επιρροής για πολιτικές εκβάσεις», ανέφερε η OpenAI σε ανακοίνωσή της.
Η αποκάλυψη έρχεται να προστεθεί στις προειδοποιήσεις για κίνδυνο κατάχρησης των εργαλείων τεχνητής νοημοσύνης που παράγουν κείμενα, εικόνες και βίντεο με βάση τις οδηγίες του χρήστη.
Η OpenAI διαβεβαίωσε πάντως πως οι πέντε καμπάνιες δεν δείχνουν να αύξησαν την απήχησή τους χάρη στις υπηρεσίες της εταιρείας.
Σε μια άλλη εξέλιξη, η Meta Platforms ανακοίνωσε αυτή την εβδομάδα ότι εντόπισε στο Facebook και το Instagram παραπλανητικό περιεχόμενο που «πιθανώς δημιουργήθηκε με ΑΙ» και μεταξύ άλλων επαινούσαν την πολιτική του Ισραήλ στη Γάζα.
Ακολουθήστε το in.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις