Ο Λευκός Οίκος προτρέπει τη βιομηχανία της τεχνολογίας να κλείσει την αγορά για σεξουαλικά καταχρηστικά τεχνάσματα τεχνητής νοημοσύνης

By | May 23, 2024

Η κυβέρνηση του προέδρου Τζο Μπάιντεν πιέζει τη βιομηχανία τεχνολογίας και τα χρηματοπιστωτικά ιδρύματα να κλείσουν μια αναπτυσσόμενη αγορά για σεξουαλικά καταχρηστικές εικόνες που δημιουργούνται με χρήση τεχνητής νοημοσύνης.

Νέα εργαλεία δημιουργίας τεχνητής νοημοσύνης έχουν καταστήσει εύκολη τη μετατροπή της ομοιότητας ενός ατόμου σε ένα σεξουαλικό ψεύτικο τεχνητής νοημοσύνης και την κοινή χρήση αυτών των ρεαλιστικών εικόνων σε δωμάτια συνομιλίας ή μέσα κοινωνικής δικτύωσης. Τα θύματα –είτε είναι διασημότητες είτε είναι παιδιά– έχουν λίγες πιθανότητες να το αποτρέψουν.

Ο Λευκός Οίκος ζήτησε την Πέμπτη για εθελοντική συνεργασία από τις εταιρείες ελλείψει ομοσπονδιακής νομοθεσίας. Με τη δέσμευση για μια σειρά από συγκεκριμένα μέτρα, οι αξιωματούχοι ελπίζουν ότι ο ιδιωτικός τομέας μπορεί να περιορίσει τη δημιουργία, τη διανομή και τη δημιουργία εσόδων από τέτοιες μη συναινετικές εικόνες τεχνητής νοημοσύνης, συμπεριλαμβανομένων των ακατάλληλων εικόνων παιδιών.

«Όταν η γενετική τεχνητή νοημοσύνη ήρθε στο προσκήνιο, όλοι έκαναν εικασίες για το πού θα συμβεί η πρώτη πραγματική ζημιά. Και νομίζω ότι έχουμε την απάντηση», δήλωσε ο επικεφαλής επιστημονικός σύμβουλος του Μπάιντεν, Arati Prabhakar, διευθυντής του Γραφείου Επιστημονικής και Τεχνολογικής Πολιτικής του Λευκού Οίκου.

Περιέγραψε στο Associated Press μια «φαινομενική επιτάχυνση» μη συναινετικών εικόνων που τροφοδοτούνται από εργαλεία τεχνητής νοημοσύνης, που απευθύνονται σε μεγάλο βαθμό σε γυναίκες και κορίτσια που μπορούν να ανατρέψουν τη ζωή τους.

«Είτε είσαι έφηβος, είτε είσαι γκέι παιδί, αυτά είναι τα ζητήματα που αντιμετωπίζουν οι άνθρωποι αυτή τη στιγμή», είπε. «Είδαμε μια επιτάχυνση επειδή η γενετική τεχνητή νοημοσύνη εξελίσσεται πολύ γρήγορα. Και το πιο γρήγορο πράγμα που μπορεί να συμβεί είναι να εμπλακούν οι εταιρείες και να αναλάβουν την ευθύνη».

Ένα έγγραφο που κοινοποιήθηκε στην AP πριν από την κυκλοφορία του την Πέμπτη καλεί για δράση όχι μόνο από τους προγραμματιστές τεχνητής νοημοσύνης, αλλά και από τους επεξεργαστές πληρωμών, τα χρηματοπιστωτικά ιδρύματα, τους παρόχους υπολογιστικού νέφους, τις μηχανές αναζήτησης και τους θυρωρούς – δηλαδή την Apple και την Google – που ελέγχουν τι καταλήγει στο καταστήματα εφαρμογών για κινητά.

Ο ιδιωτικός τομέας θα πρέπει να λάβει μέτρα για να «σταματήσει τη δημιουργία εσόδων» της σεξουαλικής κακοποίησης βάσει εικόνων και να περιορίσει την πρόσβαση σε πληρωμές, ιδιαίτερα σε ιστότοπους που προωθούν ακατάλληλες εικόνες ανηλίκων, δήλωσε η κυβέρνηση.

Ο Prabhakar είπε ότι πολλές πλατφόρμες πληρωμών και χρηματοπιστωτικά ιδρύματα έχουν ήδη δηλώσει ότι δεν θα υποστηρίξουν εταιρείες που προωθούν καταχρηστικές εικόνες.

«Αλλά μερικές φορές δεν επιβάλλεται. Μερικές φορές αυτοί οι όροι υπηρεσίας δεν υπάρχουν», είπε. «Και αυτό είναι ένα παράδειγμα για κάτι που θα μπορούσε να εφαρμοστεί με πολύ μεγαλύτερη συνέπεια».

Οι πάροχοι υπηρεσιών cloud και τα καταστήματα εφαρμογών για κινητά θα μπορούσαν επίσης να «περιορίσουν τις υπηρεσίες ιστού και τις εφαρμογές για κινητές συσκευές που διατίθενται στην αγορά με σκοπό τη δημιουργία ή την τροποποίηση σεξουαλικών εικόνων χωρίς τη συγκατάθεση του ατόμου», αναφέρει το έγγραφο.

Και είτε πρόκειται για φωτογραφία που δημιουργήθηκε από AI είτε για πραγματική γυμνή φωτογραφία που δημοσιεύτηκε στο διαδίκτυο, οι επιζώντες θα πρέπει να μπορούν να πείσουν πιο εύκολα τις διαδικτυακές πλατφόρμες να τις αφαιρέσουν.

Το πιο γνωστό θύμα πορνογραφικών deepfake εικόνων είναι η Taylor Swift, της οποίας η λατρεμένη βάση θαυμαστών επανήλθε τον Ιανουάριο, όταν προσβλητικές εικόνες του τραγουδιστή-τραγουδοποιού κυκλοφόρησαν στα μέσα κοινωνικής δικτύωσης. Η Microsoft υποσχέθηκε να ενισχύσει τα μέτρα ασφαλείας της αφού ορισμένες από τις εικόνες του Swift εντοπίστηκαν στο εργαλείο οπτικής σχεδίασης AI.

Ένας αυξανόμενος αριθμός σχολείων στις Ηνωμένες Πολιτείες και αλλού παλεύει επίσης με βαθιά ψεύτικα γυμνές φωτογραφίες των μαθητών τους που δημιουργούνται από την τεχνητή νοημοσύνη. Σε ορισμένες περιπτώσεις, διαπιστώθηκε ότι συμμαθητές δημιουργούσαν εικόνες χειραγωγημένες με AI και τις μοιράζονταν με συμμαθητές.

Το περασμένο καλοκαίρι, η κυβέρνηση Μπάιντεν μεσολάβησε σε εθελοντικές δεσμεύσεις από την Amazon, την Google, τη Meta, τη Microsoft και άλλες μεγάλες εταιρείες τεχνολογίας για την παροχή μιας σειράς προστασίες για νέα συστήματα τεχνητής νοημοσύνης προτού τα δημοσιοποιήσουν.

Στη συνέχεια, ο Μπάιντεν υπέγραψε ένα φιλόδοξο εκτελεστικό διάταγμα τον Οκτώβριο, σχεδιασμένο να καθοδηγεί την ανάπτυξη της τεχνητής νοημοσύνης, ώστε οι εταιρείες να μπορούν να αποκομίζουν κέρδη χωρίς να τίθεται σε κίνδυνο η δημόσια ασφάλεια. Ενώ εστίασε σε ευρύτερες ανησυχίες για την τεχνητή νοημοσύνη, συμπεριλαμβανομένης της εθνικής ασφάλειας, σημείωσε το αναδυόμενο πρόβλημα των εικόνων κακοποίησης παιδιών που δημιουργούνται από την τεχνητή νοημοσύνη και την αναζήτηση καλύτερων τρόπων για τον εντοπισμό τους.

Αλλά ο Μπάιντεν είπε επίσης ότι η προστασία της τεχνητής νοημοσύνης της κυβέρνησης πρέπει να υποστηρίζεται από τη νομοθεσία. Μια δικομματική ομάδα αμερικανών γερουσιαστών προτρέπει τώρα το Κογκρέσο να δαπανήσει τουλάχιστον 32 δισεκατομμύρια δολάρια τα επόμενα τρία χρόνια για την ανάπτυξη τεχνητής νοημοσύνης και τη χρηματοδότηση μέτρων για τον ασφαλή έλεγχό της, αλλά έχει σε μεγάλο βαθμό αναβάλει τις εκκλήσεις να κατοχυρωθούν αυτές οι προστασίες σε νόμο.

Η ενθάρρυνση των εταιρειών να εμπλακούν και να αναλάβουν εθελοντικές δεσμεύσεις «δεν αλλάζει τη θεμελιώδη ανάγκη του Κογκρέσου να αναλάβει δράση εδώ», δήλωσε η Τζένιφερ Κλάιν, διευθύντρια του Συμβουλίου Πολιτικής για την Πολιτική Φύλου του Λευκού Οίκου.

Οι νόμοι έχουν από καιρό απαγορεύσει τη δημιουργία ή την κατοχή σεξουαλικών εικόνων παιδιών, ακόμη κι αν είναι ψεύτικες. Οι ομοσπονδιακοί εισαγγελείς κατέθεσαν κατηγορίες νωρίτερα αυτόν τον μήνα εναντίον ενός άνδρα από το Ουισκόνσιν ο οποίος φέρεται να χρησιμοποίησε μια δημοφιλή συσκευή δημιουργίας εικόνων τεχνητής νοημοσύνης, το Stable Diffusion, για να δημιουργήσει χιλιάδες ρεαλιστικές εικόνες ανηλίκων που δημιουργήθηκαν από την τεχνητή νοημοσύνη σε σεξουαλικές πράξεις. Ένας δικηγόρος του άνδρα αρνήθηκε να σχολιάσει μετά την ακρόασή του την Τετάρτη.

Αλλά δεν υπάρχει σχεδόν καμία επισκόπηση των τεχνικών εργαλείων και υπηρεσιών που επιτρέπουν τη δημιουργία τέτοιων εικόνων. Ορισμένα βρίσκονται σε εμπορικούς ιστότοπους με ελάχιστες πληροφορίες σχετικά με το ποιος τους χειρίζεται ή σε ποια τεχνολογία βασίζονται.

Το Stanford Internet Observatory ανακοίνωσε τον Δεκέμβριο ότι βρήκε χιλιάδες εικόνες ύποπτης σεξουαλικής κακοποίησης παιδιών στη μαζική βάση δεδομένων AI LAION, ένα ευρετήριο διαδικτυακών εικόνων και λεζάντων που χρησιμοποιούνται για την εκπαίδευση κορυφαίων κατασκευαστών εικόνων AI, όπως το Stable Diffusion.

Η Stability AI με έδρα το Λονδίνο, η οποία κατέχει τις πιο πρόσφατες εκδόσεις του Stable Diffusion, δήλωσε αυτή την εβδομάδα ότι «δεν είχε εγκρίνει την κυκλοφορία» του προηγούμενου μοντέλου που φέρεται να χρησιμοποιούσε ο άνδρας του Ουισκόνσιν. Τέτοια μοντέλα ανοιχτού κώδικα είναι δύσκολο να τοποθετηθούν ξανά στο μπουκάλι επειδή τα τεχνικά τους στοιχεία δημοσιεύονται δημόσια στο Διαδίκτυο.

Ο Prabhakar είπε ότι δεν είναι μόνο η τεχνολογία ανοιχτού κώδικα AI που προκαλεί βλάβη.

«Είναι ένα ευρύτερο πρόβλημα», είπε. «Δυστυχώς, πολλοί άνθρωποι σε αυτήν την κατηγορία φαίνεται να χρησιμοποιούν γεννήτριες εικόνων. Και μόλις είδαμε μια τέτοια έκρηξη σε αυτήν την περιοχή. Αλλά δεν νομίζω ότι χωρίζεται σωστά σε συστήματα ανοιχτού κώδικα και ιδιόκτητα».

——

Ο συγγραφέας του AP Josh Boak συνέβαλε σε αυτήν την έκθεση.

Leave a Reply

Your email address will not be published. Required fields are marked *