Η ηθική τεχνητή νοημοσύνη δεν ευθύνεται για την καταστροφή Gemini της Google

By | February 29, 2024

Σε αυτήν τη φωτογραφία, το λογότυπο Google Gemini φαίνεται στο φόντο της σιλουέτας ενός ατόμου που χρησιμοποιεί ένα σημειωματάριο. (Φωτογραφία από τον Rafael Henrique/SOPA Images/LightRocket μέσω Getty Images) Πιστωτική φωτογραφία – Rafael Henrique-SOPA Images/LightRocket

μιΝωρίτερα αυτό το μήνα, η Google κυκλοφόρησε το πολυαναμενόμενο σύστημα Gemini, δίνοντας στους χρήστες πρόσβαση στην τεχνολογία απεικόνισης AI για πρώτη φορά. Ενώ οι περισσότεροι πρώτοι χρήστες συμφώνησαν ότι το σύστημα ήταν εντυπωσιακό, παράγοντας λεπτομερείς εικόνες για μηνύματα κειμένου σε δευτερόλεπτα, οι χρήστες ανακάλυψαν σύντομα ότι ήταν δύσκολο να κάνουν το σύστημα να δημιουργήσει εικόνες λευκών ανθρώπων και σύντομα οι viral έδειχναν Tweets καταπληκτικά παραδείγματα όπως ” φυλετικά διαφορετικοί Ναζί.

Μερικοί άνθρωποι κατηγόρησαν τα δίδυμα ότι ήταν «πολύ ξύπνια», χρησιμοποιώντας τα ως το τελευταίο όπλο σε έναν κλιμακούμενο πολιτισμικό πόλεμο για τη σημασία της αναγνώρισης του αντίκτυπου των ιστορικών διακρίσεων. Πολλοί είπαν ότι αντικατοπτρίζει μια αδιαθεσία στη Google, και κάποιοι το είπαν επικρίθηκε το πεδίο της «Ηθικής AI» ως αμηχανία.

Η ιδέα ότι φταίει η ηθική εργασία AI είναι εσφαλμένη. Μάλιστα, ο Δίδυμος έδειξε στο Google δεν εφαρμόστηκε σωστά τα μαθήματα από την ηθική της τεχνητής νοημοσύνης. Ενώ η ηθική της τεχνητής νοημοσύνης επικεντρώνεται στην αντιμετώπιση προβλέψιμων περιπτώσεων χρήσης – όπως ιστορικές αναπαραστάσεις – ο Gemini φαίνεται να έχει επιλέξει μια προσέγγιση “ένα μέγεθος ταιριάζει σε όλους”, οδηγώντας σε έναν άβολο συνδυασμό αναζωογονητικά διαφορετικών και αποτρόπαιων αποτελεσμάτων.

Θα επρεπε να ξερω. Εργάζομαι πάνω στην ηθική στην τεχνητή νοημοσύνη σε εταιρείες τεχνολογίας για πάνω από 10 χρόνια, καθιστώντας με έναν από τους πιο έμπειρους ειδικούς στον κόσμο σε αυτόν τον τομέα (είναι ένας νεανικός τομέας!). Επίσης, ίδρυσα και οδήγησα την ομάδα Ethical AI της Google προτού απολύσουν εμένα και τον συναρχηγό μου, αφού η έκθεσή μας προειδοποίησε για τέτοια προβλήματα στη δημιουργία γλωσσών. Πολλοί επέκριναν την Google για την απόφασή της, πιστεύοντας ότι αντικατοπτρίζει συστημικές διακρίσεις και ιεράρχηση της απερίσκεπτης ταχύτητας έναντι της στοχαστικής στρατηγικής στην τεχνητή νοημοσύνη. Είναι πιθανό να συμφωνώ απόλυτα.

Η καταστροφή των Διδύμων αποκάλυψε για άλλη μια φορά την άπειρη στρατηγική της Google σε τομείς στους οποίους είμαι ιδιαίτερα ικανός να βοηθήσω και τους οποίους πλέον μπορώ να καταστήσω ευρύτερα κατανοητούς στο κοινό. Αυτό το άρθρο περιγράφει μερικούς τρόπους με τους οποίους οι εταιρείες τεχνητής νοημοσύνης μπορούν να τα καταφέρουν καλύτερα την επόμενη φορά, για να αποφύγουν την παροχή άχρηστων πυρομαχικών στην ακροδεξιά σε πολιτιστικούς πολέμους και να διασφαλίσουν ότι η τεχνητή νοημοσύνη ωφελεί όσο το δυνατόν περισσότερους ανθρώπους στο μέλλον.

Ένα από τα κρίσιμα σημεία στη λειτουργικότητα της ηθικής στην τεχνητή νοημοσύνη είναι η άρθρωση προβλέψιμων χρήσεων, συμπεριλαμβανομένης της κακόβουλης χρήσης και κατάχρησης. Αυτό σημαίνει ότι πρέπει να απαντηθούν ερωτήματα όπως: Μόλις εφαρμοστεί το μοντέλο που θέλουμε να φτιάξουμε, πώς θα το χρησιμοποιήσουν οι άνθρωποι; Και πώς μπορούμε να το κάνουμε όσο το δυνατόν πιο χρήσιμο σε αυτά τα πλαίσια; Αυτή η προσέγγιση αναγνωρίζει την κεντρική σημασία του «πλαισίου χρήσης» κατά τη δημιουργία συστημάτων AI. Αυτό το είδος προνοητικότητας και σκέψης με βάση τα συμφραζόμενα, που βασίζεται στην αλληλεπίδραση της κοινωνίας και της τεχνολογίας, είναι πιο δύσκολο για μερικούς ανθρώπους από άλλους – εδώ είναι ιδιαίτερα ικανοί άνθρωποι με εξειδίκευση στην αλληλεπίδραση ανθρώπου-υπολογιστή, στις κοινωνικές επιστήμες και στη γνωστική επιστήμη (σε συνομιλία με ο). Σημασία της διεπιστημονικότητας κατά την πρόσληψη τεχνικών). Σε αυτούς τους ρόλους συνήθως δεν δίνεται τόση δύναμη και επιρροή όσο στους ρόλους μηχανικής, και υποψιάζομαι ότι αυτό ίσχυε στην περίπτωση των Διδύμων: αυτοί που ήταν πιο έμπειροι στην άρθρωση προβλέψιμων χρήσεων δεν είχαν εξουσιοδότηση, με αποτέλεσμα ένα σύστημα να είχε ως αποτέλεσμα την αποτυχία να χειριστεί διάφορους τύπους κατάλληλης χρήσης, όπως η απεικόνιση ιστορικά λευκών ομάδων.

Τα πράγματα πάνε στραβά όταν οι εταιρείες αντιμετωπίζουν όλες τις περιπτώσεις χρήσης ως μία περίπτωση χρήσης ή δεν μοντελοποιούν καθόλου περιπτώσεις χρήσης. Επομένως, χωρίς μια ηθικά ορθή ανάλυση των περιπτώσεων χρήσης σε διαφορετικά περιβάλλοντα, τα συστήματα τεχνητής νοημοσύνης ενδέχεται να μην έχουν μοντέλα «κάτω από την κουκούλα» που βοηθούν στον προσδιορισμό του τι ζητά ο χρήστης (και αν θα πρέπει να δημιουργηθεί). Για τους Διδύμους, αυτό θα μπορούσε να σημαίνει τον προσδιορισμό του εάν ο χρήστης αναζητά ιστορικές ή διαφορετικές εικόνες και εάν το αίτημά του είναι διφορούμενο ή κακόβουλο. Πρόσφατα είδαμε ότι αυτή η ίδια αποτυχία στην ανάπτυξη ισχυρών μοντέλων για προβλέψιμη χρήση οδήγησε στον πολλαπλασιασμό της πορνογραφίας Taylor Swift που δημιουργήθηκε από AI.

Για να σας βοηθήσω, δημιούργησα τον παρακάτω πίνακα πριν από χρόνια. Το καθήκον είναι να συμπληρώσετε τα κελιά. Το συμπλήρωσα σήμερα με μερικά παραδείγματα που σχετίζονται ειδικά με τους Διδύμους.

<span class=Credit Margaret Mitchell“data-src=”https://s.yimg.com/ny/api/res/1.2/j.YBpCv2zDGRLw4SAsR_8w–/YXBwaWQ9aGlnaGxhbmRlcjt3PTk2MDtoPTUzMw–/https://media.zenfs_15000000000000000000001 893c50c946 ” />
Credit Margaret Mitchell

Τα πράσινα κελιά (επάνω σειρά) είναι εκείνα όπου η ωφέλιμη τεχνητή νοημοσύνη είναι πιο πιθανή (όχι όπου η τεχνητή νοημοσύνη θα είναι πάντα ωφέλιμη). Τα ερυθρά αιμοσφαίρια (μεσαία σειρά) είναι εκείνα στα οποία είναι πιο πιθανό να βλάψει την τεχνητή νοημοσύνη (αλλά και ενδεχομένως όπου θα μπορούσαν να συμβούν απρόβλεπτες ευεργετικές καινοτομίες). Για τα υπόλοιπα κύτταρα, τα αποτελέσματα είναι πιο πιθανό να είναι μικτά – ορισμένα αποτελέσματα είναι καλά, μερικά είναι κακά.

Τα επόμενα βήματα είναι η επανεξέταση πιθανών σφαλμάτων σε διαφορετικά πλαίσια και η αντιμετώπιση δυσανάλογων σφαλμάτων για υποομάδες που εκτίθενται σε διακρίσεις. Οι προγραμματιστές του Gemini φαίνεται ότι έχουν καταλάβει σωστά αυτό το κομμάτι. Η ομάδα φάνηκε να είχε την προνοητικότητα να αναγνωρίσει τον κίνδυνο υπερεκπροσώπησης των λευκών σε ουδέτερες ή θετικές καταστάσεις, κάτι που θα ενίσχυε μια προβληματική άποψη για τον κόσμο που κυριαρχούν οι λευκοί. Επομένως, πιθανότατα υπήρχε μια υπομονάδα στο Gemini που προοριζόταν να εμφανίζει πιο σκούρους τόνους δέρματος στους χρήστες.

Το γεγονός ότι αυτά τα βήματα είναι εμφανή στους Διδύμους, αλλά όχι τα βήματα που αποφέρουν προβλέψιμα οφέλη, μπορεί να οφείλεται εν μέρει στην αυξημένη ευαισθητοποίηση του κοινού σχετικά με την προκατάληψη στα συστήματα τεχνητής νοημοσύνης: η προκατάληψη υπέρ των λευκών ήταν εύκολα προβλέψιμη PR – Εφιάλτης που θυμίζει το περιστατικό του Γορίλα της Google διαβόητη για τις διαφοροποιημένες προσεγγίσεις του στην αντιμετώπιση του «πλαισίου χρήσης». Το καθαρό αποτέλεσμα ήταν ένα σύστημα που «έχασε το σημάδι» όταν επρόκειτο να ενσωματώσει προβλέψιμες και κατάλληλες περιπτώσεις χρήσης.

Το πιο σημαντικό σημείο είναι ότι είναι δυνατό να έχουμε τεχνολογία που ωφελεί τους χρήστες και ελαχιστοποιεί τη ζημιά σε όσους είναι πιο πιθανό να επηρεαστούν αρνητικά. Αλλά πρέπει να έχετε ανθρώπους που είναι καλοί στο να συμμετέχουν στις αποφάσεις ανάπτυξης και εγκατάστασης. Και αυτοί οι άνθρωποι είναι συχνά αποδυναμωμένοι (ή χειρότερα) στην τεχνολογία. Δεν χρειάζεται να είναι έτσι: μπορούμε να ακολουθήσουμε διαφορετικούς δρόμους ώστε η τεχνητή νοημοσύνη να ενδυναμώσει τους κατάλληλους ανθρώπους να κάνουν αυτό που έχουν τα καλύτερα προσόντα να κάνουν. Όπου αναζητούνται διαφορετικές οπτικές γωνίες και δεν κλείνονται. Το να φτάσετε εκεί απαιτεί σκληρή δουλειά και αναστατωμένα φτερά. Θα ξέρουμε ότι βρισκόμαστε στο σωστό δρόμο όταν δούμε τους ηγέτες τεχνολογίας τόσο διαφορετικούς όσο οι εικόνες που παράγει το Gemini.

Επικοινωνήστε μαζί μας στο Letters@time.com.