Χιλιάδες φωτογραφίες σεξουαλικής κακοποίησης παιδιών βρέθηκε να περιέχει ανοιχτή βάση δεδομένων που συγκεντρώνει δισεκατομμύρια εικόνες για την εκπαίδευση μοντέλων τεχνητής νοημοσύνης.
Πρόκειται για μια αποκάλυψη που επιβεβαιώνει τις ανησυχίες για κίνδυνο κατάχρησης της τεχνολογίας. Χάρη στο παράνομο υλικό, τα εργαλεία τεχνητής νοημοσύνης μπορούν πιο εύκολα να παράγουν γυμνές εικόνες ανύπαρκτων παιδιών, καθώς και να “γδύνουν” εφήβους που εμφανίζονται ντυμένοι σε φωτογραφίες.
Μέχρι σήμερα ήταν γνωστό ότι πολλά μοντέλα τεχνητής νοημοσύνης εκπαιδεύονται με εικόνες από πορνογραφικές ιστοσελίδες για ενήλικες. Πλέον με βάση έκθεση του Διαδικτυακού Παρατηρητηρίου που λειτουργεί στο Πανεπιστήμιο του Στάνφορντ αποκαλύπτει ότι η εκπαίδευση κάποιων μοντέλων περιλάμβανε και ακατάλληλες εικόνες παιδιών.
Συγκεκριμένα περισσότερες από 3.200 εικόνες πιθανής σεξουαλικής κακοποίησης ενηλίκων βρέθηκαν στη γιγάντια, ανοιχτή βάση δεδομένων LAION, η οποία συγκεντρώνει 5,8 δισεκατομμύρια εικόνες, μαζί με περιγραφικές λεζάντες, για την εκπαίδευση μεγάλων μοντέλων όπως το Stable Diffusion. Οι ερευνητές του Παρατηρητηρίου δεν έλεγξαν τις εικόνες μία προς μία, αναφέρουν όμως πως για 1.000 από αυτές υπήρξε ανεξάρτητη επιβεβαίωση ότι ήταν όντως παράνομες. Ειδοποίησαν επίσης τις αρμόδιες αρχές των ΗΠΑ και του Καναδά, στις οποίες έστειλαν τους συνδέσμους των εικόνων για διερεύνηση των υποθέσεων.
Πριν καν δημοσιευτεί η έκθεση του Στάνφορντ την Τετάρτη, ο οργανισμός LAION δήλωσε στο Associated Press ότι κατεβάζει προσωρινά τη βάση από το Διαδίκτυο. Διαβεβαίωσε ότι δείχνει «μηδενική ανοχή» στο παράνομο περιεχόμενο, δεν εξήγησε όμως πώς βρέθηκαν στη βάση το παράνομο περιεχόμενο. Αν και οι εικόνες αντιστοιχούν σε ένα ελάχιστο μέρος του συνόλου, οι ερευνητές του Στάνφορντ θεωρούν ότι είναι αρκετές για να βελτιώσουν τις ικανότητες της ΑΙ στη σύνθεση παράνομων εικόνων και επιτείνει την κακοποίηση θυμάτων που εμφανίζονται σε όλο και περισσότερες εικόνες. Το πρόβλημα οφείλεται στη «βιασύνη» ορισμένων εταιρειών να λανσάρουν ανταγωνιστικά μοντέλα ΑΙ, δήλωσε στο Associated Press ο Ντέιβιντ Τιλ, επικεφαλής της έκθεσης του Στάνφορντ. Είναι ένα πρόβλημα που δεν λύνεται εύκολα, είπε.
Ένας από τους μεγαλύτερους υποστηρικτές και χρήστες του LAΙON είναι η λονδρέζικη Stability AI, δημιουργός του δημοφιλούς μοντέλου Stable Diffusion για την παραγωγή συνθετικών εικόνων. Οι νεότερες εκδόσεις του μοντέλου δεν επιτρέπουν τη σύνθεση πορνογραφικού υλικού, ωστόσο μια προηγούμενη έκδοση που έχει ενσωματωθεί σε πολλές διαδικτυακές υπηρεσίες παραμένει «το δημοφιλέστερο μοντέλο για την παραγωγή ακατάλληλων εικόνων», επισημαίνει η έκθεση.
Το μοντέλο αυτό έχει κυκλοφορήσει ευρέως στο Διαδίκτυο και άγνωστος αριθμός ανθρώπων το έχει κατεβάσει στους προσωπικούς υπολογιστές τος. Απαντώντας στο Associated press, η Stability AI δήλωσε ότι έχει λάβει μέτρα κατά της κατάχρησης των προϊόντων της και εφαρμόζει φίλτρα που απομακρύνουν τις κατάλληλες εικόνες πριν τροφοδοτηθούν στο σύστημα για την εκπαίδευσή του. Η OpenAI, δημιουργός του εργαλείου συνθετικών εικόνων DALL-E, δήλωσε ότι δεν χρησιμοποιεί το LAION. H Google είχε χρησιμοποιήσει τη βάση στην ανάπτυξη του εργαλείου Imagen, το οποίο όμως δεν διατέθηκε στο κοινό επειδή οι έλεγχοι «αποκάλυψαν ένα μεγάλο εύρος ακατάλληλου υλικού, συμπεριλαμβανομένων πορνογραφικών εικόνων, ρατσιστικών προσβολών και επιβλαβών κοινωνικών στερεοτύπων.
Πηγή:in.gr