Τεχνητή νοημοσύνη: Εικόνες παιδικής πορνογραφίας χρησιμοποιήθηκαν στην «εκπαίδευση» μοντέλων ΑΙ
Άγνωστο πώς, χιλιάδες εικόνες σεξουαλικής κακοποίησης ανηλίκων κατέληξαν σε βάση δεδομένων που χρησιμοποιούν μεγάλες εταιρείες όπως η Stability AI.
- Η τηλεθέαση του debate ΣΥΡΙΖΑ – Ελπίδες για τη συμμετοχή στην κάλπη της Κυριακής – Η σύγκριση με το ΠΑΣΟΚ
- Ο καλλιτέχνης που απείλησε ότι θα κατέστρεφε πολύτιμα έργα τέχνης αν ο Τζούλιαν Ασάνζ πέθαινε στη φυλακή
- Για ποια εγκλήματα κατηγορούνται οι Νετανιάχου, Γκάλαντ και Ντέιφ
- Να απομονώσει τους αποστάτες καλούν οι 87+ τον πολιτικό κόσμο - «Να μην αποδεχτούν έδρες προϊόν συνωμοσίας»
Ανοιχτή βάση δεδομένων που συγκεντρώνει δισεκατομμύρια εικόνες για την εκπαίδευση μοντέλων τεχνητής νοημοσύνης βρέθηκε να περιέχει χιλιάδες φωτογραφίες σεξουαλικής κακοποίησης παιδιών, μια αποκάλυψη που επιβεβαιώνει τις ανησυχίες για κίνδυνο κατάχρησης της τεχνολογίας.
Χάρη στο παράνομο υλικό, τα εργαλεία ΑΙ μπορούν πιο εύκολα να παράγουν γυμνές εικόνες ανύπαρκτων παιδιών, αλλά και να «γδύνουν» εφήβους που εμφανίζονται ντυμένοι σε φωτογραφίες.
Έρευνα του Στάνφορντ
Μέχρι σήμερα ήταν γνωστό ότι πολλά μοντέλα ΑΙ εκπαιδεύονται με εικόνες από πορνογραφικές ιστοσελίδες για ενήλικες.
Τώρα, όμως, έκθεση του Διαδικτυακού Παρατηρητηρίου που λετουργεί στο Πανεπιστήμιο του Στάνφορντ αποκαλύπτει ότι η εκπαίδευση κάποιων μοντέλων περιλάμβανε και ακατάλληλες εικόνες παιδιών.
Περισσότερες από 3.200 εικόνες πιθανής σεξουαλικής κακοποίησης ενηλίκων βρέθηκαν στη γιγάντια, ανοιχτή βάση δεδομένων LAION, η οποία συγκεντρώνει 5,8 δισεκατομμύρια εικόνες, μαζί με περιγραφικές λεζάντες, για την εκπαίδευση μεγάλων μοντέλων όπως το Stable Diffusion.
Οι ερευνητές του Παρατηρητηρίου δεν έλεγξαν τις εικόνες μία προς μία, αναφέρουν όμως πως για 1.000 από αυτές υπήρξε ανεξάρτητη επιβεβαίωση ότι ήταν όντως παράνομες.
Ειδοποίησαν επίσης τις αρμόδιες αρχές των ΗΠΑ και του Καναδά, στις οποίες έστειλαν τους συνδέσμους των εικόνων για διερεύνηση των υποθέσεων.
Πριν καν δημοσιευτεί η έκθεση του Στάνφορντ την Τετάρτη, ο οργανισμός LAION δήλωσε στο Associated Press ότι κατεβάζει προσωρινά τη βάση από το Διαδίκτυο. Διαβεβαίωσε ότι δείχνει «μηδενική ανοχή» στο παράνομο περιεχόμενο, δεν εξήγησε όμως πώς βρέθηκαν στη βάση το παράνομο περιεχόμενο.
«Βιασύνη»
Αν και οι εικόνες αντιστοιχούν σε ένα ελάχιστο μέρος του συνόλου, οι ερευνητές του Στάνφορντ θεωρούν ότι είναι αρκετές για να βελτιώσουν τις ικανότητες της ΑΙ στη σύνθεση παράνομων εικόνων και επιτείνει την κακοποίηση θυμάτων που εμφανίζονται σε όλο και περισσότερες εικόνες.
Το πρόβλημα οφείλεται στη «βιασύνη» ορισμένων εταιρειών να λανσάρουν ανταγωνιστικά μοντέλα ΑΙ, δήλωσε στο Associated Press ο Ντέιβιντ Τιλ, επικεφαλής της έκθεσης του Στάνφορντ. Είναι ένα πρόβλημα που δεν λύνεται εύκολα, είπε.
Stable Diffusion
Ένας από τους μεγαλύτερους υποστηρικτές και χρήστες του LAΙON είναι η λονδρέζικη Stability AI, δημιουργός του δημοφιλούς μοντέλου Stable Diffusion για την παραγωγή συνθετικών εικόνων.
Οι νεότερες εκδόσεις του μοντέλου δεν επιτρέπουν τη σύνθεση πορνογραφικού υλικού, ωστόσο μια προηγούμενη έκδοση που έχει ενσωματωθεί σε πολλές διαδικτυακές υπηρεσίες παραμένει «το δημοφιλέστερο μοντέλο για την παραγωγή ακατάλληλων εικόνων», επισημαίνει η έκθεση.
Το μοντέλο αυτό έχει κυκλοφορήσει ευρέως στο Διαδίκτυο και άγνωστος αριθμός ανθρώπων το έχει κατεβάσει στους προσωπικούς υπολογιστές τος.
Απαντώντας στο Associated press, η Stability AI δήλωσε ότι έχει λάβει μέτρα κατά της κατάχρησης των προϊόντων της και εφαρμόζει φίλτρα που απομακρύνουν τις κατάλληλες εικόνες πριν τροφοδοτηθούν στο σύστημα για την εκπαίδευσή του.
Η OpenAI, δημιουργός του εργαλείου συνθετικών εικόνων DALL-E, δήλωσε ότι δεν χρησιμοποιεί το LAION.
H Google είχε χρησιμοποιήσει τη βάση στην ανάπτυξη του εργαλείου Imagen, το οποίο όμως δεν διατέθηκε στο κοινό επειδή οι έλεγχοι «αποκάλυψαν ένα μεγάλο εύρος ακατάλληλου υλικού, συμπεριλαμβανομένων πορνογραφικών εικόνων, ρατσιστικών προσβολών και επιβλαβών κοινωνικών στερεοτύπων.
Ακολουθήστε το in.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις