Η μελέτη δείχνει ότι οι γεννήτριες εικόνων τεχνητής νοημοσύνης εκπαιδεύονται σε ξεκάθαρες φωτογραφίες παιδιών

By | December 20, 2023

Η ίδρυση των δημοφιλών παραγωγών εικόνων τεχνητής νοημοσύνης κρύβει χιλιάδες εικόνες σεξουαλικής κακοποίησης παιδιών, σύμφωνα με μια νέα έκθεση που προτρέπει τις εταιρείες να αναλάβουν δράση για να διορθώσουν ένα επιβλαβές ελάττωμα στην τεχνολογία που αναπτύσσουν.

Αυτές οι ίδιες εικόνες έχουν διευκολύνει τα συστήματα τεχνητής νοημοσύνης να δημιουργούν ρεαλιστικές και σαφείς εικόνες ψεύτικων παιδιών και να μετατρέπουν φωτογραφίες των κοινωνικών δικτύων από πλήρως ντυμένους πραγματικούς εφήβους σε γυμνές, κάτι που απασχολεί πολύ τα σχολεία και τις υπηρεσίες επιβολής του νόμου σε όλο τον κόσμο.

Μέχρι πρόσφατα, οι ερευνητές κατά της κακοποίησης πίστευαν ότι ο μόνος τρόπος με τον οποίο ορισμένα μη ελεγχόμενα εργαλεία τεχνητής νοημοσύνης μπορούσαν να δημιουργήσουν υβριστικές εικόνες παιδιών ήταν ουσιαστικά ο συνδυασμός όσων έμαθαν από δύο ξεχωριστές κατηγορίες διαδικτυακών εικόνων – την πορνογραφία ενηλίκων και τις αβλαβείς φωτογραφίες παιδιών.

Όμως το Stanford Internet Observatory βρήκε περισσότερες από 3.200 εικόνες ύποπτης σεξουαλικής κακοποίησης παιδιών στη μαζική βάση δεδομένων AI LAION, ένα ευρετήριο διαδικτυακών εικόνων και λεζάντων που χρησιμοποιούνται για την εκπαίδευση κορυφαίων κατασκευαστών εικόνων AI, όπως το Stable Diffusion. Η ομάδα παρακολούθησης που εδρεύει στο Πανεπιστήμιο του Στάνφορντ συνεργάστηκε με το Καναδικό Κέντρο για την Προστασία του Παιδιού και άλλες φιλανθρωπικές οργανώσεις κατά της κακοποίησης για τον εντοπισμό του παράνομου υλικού και την αναφορά των αρχικών φωτογραφικών συνδέσμων στις αρχές επιβολής του νόμου.

Η απάντηση ήρθε αμέσως. Την παραμονή της δημοσίευσης της έκθεσης του Stanford Internet Observatory την Τετάρτη, η LAION είπε στο Associated Press ότι θα αφαιρέσει προσωρινά τα σύνολα δεδομένων της.

Η LAION, η οποία αντιπροσωπεύει το μη κερδοσκοπικό Ανοιχτό Δίκτυο Τεχνητής Νοημοσύνης μεγάλης κλίμακας, ανέφερε σε μια δήλωση ότι «έχει πολιτική μηδενικής ανοχής απέναντι στο παράνομο περιεχόμενο και έχουμε λάβει τη μέγιστη προσοχή στη διαγραφή των αρχείων LAION για να διασφαλίσουμε ότι είναι βέβαιο ότι θα αναδημοσιεύστε τα».

Ενώ οι εικόνες αντιπροσωπεύουν μόνο ένα κλάσμα του δείκτη του LAION με περίπου 5,8 δισεκατομμύρια εικόνες, σύμφωνα με τον όμιλο Stanford, είναι πιθανό να επηρεάσουν την ικανότητα των εργαλείων τεχνητής νοημοσύνης να παράγουν επιβλαβή αποτελέσματα και την προηγούμενη κατάχρηση πραγματικών θυμάτων, που φαίνεται πολλές φορές να ενισχύονται.

Δεν είναι ένα πρόβλημα που μπορεί να επιλυθεί εύκολα και πηγάζει από το γεγονός ότι πολλά έργα παραγωγής τεχνητής νοημοσύνης έχουν «κυκλοφορήσει αποτελεσματικά στην αγορά» και έχουν γίνει ευρέως διαθέσιμα επειδή το πεδίο είναι τόσο ανταγωνιστικό, δήλωσε ο David Thiel, επικεφαλής τεχνολόγος στο Stanford Internet Observatory, ο οποίος ανέφερε στο έγραψε την έκθεση.

«Το να κάνετε μια ολόκληρη αναζήτηση στο Διαδίκτυο και να χρησιμοποιήσετε αυτό το σύνολο δεδομένων για να εκπαιδεύσετε μοντέλα είναι κάτι που θα έπρεπε να περιορίζεται περισσότερο σε μια ερευνητική λειτουργία και δεν είναι κάτι που θα έπρεπε να είχε ανοιχτό κώδικα χωρίς πολύ πιο αυστηρή προσοχή», είπε ο Thiel σε μια συνέντευξη.

Ένας εξέχων χρήστης του LAION που βοήθησε στη διαμόρφωση της ανάπτυξης του συνόλου δεδομένων είναι η startup Stability AI με έδρα το Λονδίνο, κατασκευαστής των μοντέλων κειμένου σε εικόνα Stable Diffusion. Οι νέες εκδόσεις του Stable Diffusion έχουν κάνει πολύ πιο δύσκολη τη δημιουργία κακόβουλου περιεχομένου, αλλά μια παλαιότερη έκδοση που παρουσιάστηκε πέρυσι – η οποία είπε ότι η Stability AI δεν έχει κυκλοφορήσει – εξακολουθεί να είναι ενσωματωμένη με άλλες εφαρμογές και εργαλεία και παραμένει «το πιο δημοφιλές μοντέλο για δημιουργία». . σαφείς εικόνες», ανέφερε η έκθεση του Στάνφορντ.

«Δεν μπορούμε να το πάρουμε πίσω. Αυτό το μοντέλο βρίσκεται στα χέρια πολλών ανθρώπων στους τοπικούς υπολογιστές τους», δήλωσε ο Lloyd Richardson, διευθυντής τεχνολογίας πληροφοριών στο Canadian Center for Child Protection, το οποίο διαχειρίζεται την ανοιχτή γραμμή του Καναδά για την αναφορά διαδικτυακής σεξουαλικής εκμετάλλευσης.

Η Stability AI δήλωσε την Τετάρτη ότι φιλοξενεί μόνο φιλτραρισμένες εκδόσεις του Stable Diffusion και ότι «από τότε που ανέλαβε την αποκλειστική ανάπτυξη του Stable Diffusion, η Stability AI έχει λάβει προληπτικά μέτρα για να μειώσει τον κίνδυνο κακής χρήσης».

«Αυτά τα φίλτρα εμποδίζουν το μη ασφαλές περιεχόμενο να φτάσει στα μοντέλα», ανέφερε η εταιρεία σε μια έτοιμη δήλωση. “Καταργώντας αυτό το περιεχόμενο πριν φτάσει στο μοντέλο, μπορούμε να αποτρέψουμε το μοντέλο από τη δημιουργία μη ασφαλούς περιεχομένου.”

Το LAION ήταν το πνευματικό τέκνο ενός Γερμανού ερευνητή και δασκάλου, του Christoph Schuhmann, ο οποίος είπε στο AP νωρίτερα αυτό το έτος ότι ένας από τους λόγους για τη δημοσιοποίηση μιας τόσο μεγάλης οπτικής βάσης δεδομένων ήταν να διασφαλιστεί ότι το μέλλον της ανάπτυξης της τεχνητής νοημοσύνης δεν ελέγχεται από μια χούφτα ισχυρών εταιρειών.

«Θα είναι πολύ πιο ασφαλές και δίκαιο αν μπορέσουμε να το εκδημοκρατίσουμε, ώστε ολόκληρη η ερευνητική κοινότητα και ολόκληρο το κοινό να μπορούν να επωφεληθούν από αυτό», είπε.

Πολλά από τα δεδομένα του LAION προέρχονται από μια άλλη πηγή, το Common Crawl, ένα αποθετήριο δεδομένων που ανιχνεύονται συνεχώς από το ανοιχτό Διαδίκτυο. Ωστόσο, ο Διευθύνων Σύμβουλος της Common Crawl, Rich Skrenta, δήλωσε ότι ήταν «υποχρεωτικό» για τη LAION να σαρώσει και να φιλτράρει τα δεδομένα που συλλέγονται πριν τα χρησιμοποιήσει.

Η LAION δήλωσε αυτή την εβδομάδα ότι έχει αναπτύξει «αυστηρά φίλτρα» για τον εντοπισμό και την αφαίρεση παράνομου περιεχομένου πριν από τη δημοσίευση των συνόλων δεδομένων της και συνεχίζει να εργάζεται για τη βελτίωση αυτών των φίλτρων. Η έκθεση του Stanford αναγνωρίζει ότι οι προγραμματιστές του LAION έκαναν κάποιες προσπάθειες να φιλτράρουν το ρητό “ελάσσονος” περιεχόμενο, αλλά μπορεί να είχαν κάνει καλύτερη δουλειά εάν είχαν συμβουλευτεί νωρίτερα ειδικούς για την ασφάλεια των παιδιών.

Πολλές συσκευές δημιουργίας κειμένου σε εικόνα προέρχονται από τη βάση δεδομένων LAION με κάποιο τρόπο, αν και δεν είναι πάντα σαφές ποια είναι. Η OpenAI, κατασκευαστής των DALL-E και ChatGPT, δήλωσε ότι δεν χρησιμοποιεί το LAION και έχει βελτιστοποιήσει τα μοντέλα της για να απορρίπτει αιτήματα για σεξουαλικό περιεχόμενο που αφορά ανηλίκους.

Η Google κατασκεύασε το μοντέλο εικόνας κειμένου σε εικόνα βασισμένο σε ένα σύνολο δεδομένων LAION, αλλά αποφάσισε να μην το δημοσιεύσει το 2022 αφού ένας έλεγχος της βάσης δεδομένων «αποκάλυψε ένα ευρύ φάσμα ακατάλληλου περιεχομένου, συμπεριλαμβανομένων πορνογραφικών εικόνων, ρατσιστικών προσβολών και επιβλαβών κοινωνικών στερεοτύπων».

Η προσπάθεια εκκαθάρισης των δεδομένων αναδρομικά είναι δύσκολη, επομένως το Stanford Internet Observatory ζητά πιο δραστικά μέτρα. Το ένα είναι για όποιον έχει δημιουργήσει σετ εκπαίδευσης με βάση το LAION-5B – που ονομάστηκε για τα περισσότερα από 5 δισεκατομμύρια ζεύγη εικόνας-κειμένου που περιέχει – να «τα διαγράψει ή να συνεργαστεί με μεσάζοντες για να καθαρίσει το υλικό». Ένα άλλο είναι να εξαφανιστεί αποτελεσματικά μια παλαιότερη έκδοση του Stable Diffusion από όλες εκτός από τις πιο σκοτεινές γωνιές του Διαδικτύου.

«Οι νόμιμες πλατφόρμες ενδέχεται να σταματήσουν να προσφέρουν εκδόσεις τους για λήψη», ιδιαίτερα εάν χρησιμοποιούνται συνήθως για τη δημιουργία καταχρηστικών εικόνων και δεν διαθέτουν προστασία για να τις αποκλείσουν, είπε ο Thiel.

Ως παράδειγμα, ο Thiel ανέφερε το CivitAI, μια πλατφόρμα που προτιμούν οι άνθρωποι που κάνουν πορνογραφία που δημιουργείται από την τεχνητή νοημοσύνη, αλλά η οποία, όπως είπε, στερείται διασφαλίσεων για να την εξισορροπήσει έναντι της δημιουργίας εικόνων παιδιών. Η έκθεση καλεί επίσης την εταιρεία τεχνητής νοημοσύνης Hugging Face, η οποία διανέμει δεδομένα εκπαίδευσης μοντέλων, να εφαρμόσει καλύτερες μεθόδους για την αναφορά και την αφαίρεση συνδέσμων με προσβλητικό υλικό.

Η Hugging Face είπε ότι συνεργάζεται τακτικά με ρυθμιστικές αρχές και ομάδες ασφάλειας παιδιών για τον εντοπισμό και την αφαίρεση καταχρηστικού υλικού. Η CivitAI δεν απάντησε σε αιτήματα για σχόλια που υποβλήθηκαν στον ιστότοπό της.

Η έκθεση του Στάνφορντ αμφισβητεί επίσης εάν φωτογραφίες παιδιών -ακόμη και των πιο αβλαβών- θα πρέπει να τροφοδοτούνται σε συστήματα τεχνητής νοημοσύνης χωρίς τη συγκατάθεση των μελών της οικογένειάς τους, λόγω των προστασιών στον ομοσπονδιακό νόμο που προστατεύει το απόρρητο των παιδιών στο διαδίκτυο.

Η Rebecca Portnoff, διευθύντρια επιστήμης δεδομένων στην οργάνωση κατά της σεξουαλικής κακοποίησης παιδιών Thorn, είπε ότι η οργάνωσή της έχει διεξαγάγει έρευνα που δείχνει ότι η επικράτηση των εικόνων που δημιουργούνται από AI μεταξύ των δραστών είναι χαμηλή αλλά αυξάνεται.

Οι προγραμματιστές μπορούν να μετριάσουν αυτές τις βλάβες διασφαλίζοντας ότι τα σύνολα δεδομένων που χρησιμοποιούν για την ανάπτυξη μοντέλων τεχνητής νοημοσύνης είναι απαλλαγμένα από καταχρηστικά υλικά. Ο Portnoff είπε ότι υπάρχουν επίσης τρόποι για να περιοριστούν οι επιβλαβείς χρήσεις αργότερα, αφού τα μοντέλα είναι ήδη σε κυκλοφορία.

Οι εταιρείες τεχνολογίας και οι ομάδες ασφάλειας παιδιών εκχωρούν επί του παρόντος ένα “hash” – μοναδικές ψηφιακές υπογραφές – σε βίντεο και εικόνες για τον εντοπισμό και την αφαίρεση υλικού κακοποίησης παιδιών. Σύμφωνα με τον Portnoff, η ίδια ιδέα μπορεί να εφαρμοστεί και σε μοντέλα τεχνητής νοημοσύνης που χρησιμοποιούνται κατά λάθος.

«Αυτό δεν συμβαίνει αυτή τη στιγμή», είπε. «Αλλά είναι κάτι που νομίζω ότι μπορεί και πρέπει να γίνει».

Leave a Reply

Your email address will not be published. Required fields are marked *