Μικρές ομοσπονδιακές υπηρεσίες αναπτύσσουν πρότυπα για να κάνουν την τεχνητή νοημοσύνη ασφαλή και αξιόπιστη

By | January 22, 2024

ΒΟΣΤΟΝΗ (AP) — Από την πυρηνική σχάση, καμία τεχνολογία δεν θα διαμορφώσει το κοινό μας μέλλον όπως η τεχνητή νοημοσύνη. Επομένως, τα βασικά τους συστήματα AI είναι ασφαλή, αξιόπιστα και κοινωνικά υπεύθυνα.

Αλλά σε αντίθεση με την ατομική βόμβα, αυτή η αλλαγή παραδείγματος καθοδηγήθηκε σχεδόν εξ ολοκλήρου από τον ιδιωτικό τεχνολογικό τομέα, ο οποίος ήταν τουλάχιστον ανθεκτικός στη ρύθμιση. Διακυβεύονται δισεκατομμύρια, καθιστώντας το καθήκον της κυβέρνησης Μπάιντεν να θέτει πρότυπα για την ασφάλεια της τεχνητής νοημοσύνης μια μεγάλη πρόκληση.

Για να καθορίσει τις παραμέτρους, προσέλαβε μια μικρή ομοσπονδιακή υπηρεσία, το Εθνικό Ινστιτούτο Προτύπων και Τεχνολογίας. Τα εργαλεία και οι ενέργειες του NIST ορίζουν προϊόντα και υπηρεσίες από τα ατομικά ρολόγια έως την τεχνολογία ασφαλείας εκλογών και τα νανοϋλικά.

Επικεφαλής των προσπαθειών τεχνητής νοημοσύνης του οργανισμού είναι ο Elham Tabassi, ο επικεφαλής σύμβουλος AI του NIST. Ηγήθηκε του πλαισίου διαχείρισης κινδύνου AI που κυκλοφόρησε πριν από 12 μήνες, το οποίο έθεσε τις βάσεις για το εκτελεστικό διάταγμα AI του Μπάιντεν στις 30 Οκτωβρίου. Απαριθμούσε κινδύνους όπως μεροληψία κατά των μη λευκών και απειλές για την ιδιωτική ζωή.

Με καταγωγή από το Ιράν, η Tabassi ήρθε στις Ηνωμένες Πολιτείες το 1994 για το μεταπτυχιακό της στην Ηλεκτρολογία και εντάχθηκε στο NIST λίγο αργότερα. Είναι η επικεφαλής αρχιτέκτονας ενός προτύπου που χρησιμοποιεί το FBI για τη μέτρηση της ποιότητας της εικόνας των δακτυλικών αποτυπωμάτων.

Αυτή η συνέντευξη με τον Ταμπάσι έχει επεξεργαστεί για λόγους έκτασης και σαφήνειας.

Ε: Οι νέες τεχνολογίες AI έχουν δυνατότητες που οι προγραμματιστές τους δεν καταλαβαίνουν καν. Δεν υπάρχει καν ένα κοινό λεξιλόγιο, η τεχνολογία είναι τόσο νέα. Τονίσατε τη σημασία της δημιουργίας ενός λεξικού για την τεχνητή νοημοσύνη. Γιατί;

Α: Το μεγαλύτερο μέρος της δουλειάς μου αφορά την όραση υπολογιστών και τη μηχανική μάθηση. Και εδώ χρειαζόμασταν ένα κοινό λεξικό για να μην πέσουμε γρήγορα σε διαφωνίες. Ένας μόνο όρος μπορεί να σημαίνει διαφορετικά πράγματα για διαφορετικούς ανθρώπους. Το να μιλάμε ο ένας δίπλα στον άλλο είναι ιδιαίτερα συχνό σε διεπιστημονικούς τομείς όπως η τεχνητή νοημοσύνη.

Ερ.: Είπατε ότι για να είναι επιτυχημένη η δουλειά σας χρειάζεστε τη συμβολή όχι μόνο επιστημόνων και μηχανικών υπολογιστών, αλλά και νομικών, ψυχολόγων και φιλοσόφων.

Α: Τα συστήματα τεχνητής νοημοσύνης είναι εγγενώς κοινωνικοτεχνικά και επηρεάζονται από περιβάλλοντα και συνθήκες χρήσης. Πρέπει να δοκιμάζονται σε πραγματικές συνθήκες για να κατανοήσουν τους κινδύνους και τις επιπτώσεις. Χρειαζόμαστε λοιπόν γνωστικούς επιστήμονες, κοινωνικούς επιστήμονες και, ναι, φιλοσόφους.

Ε: Αυτό το καθήκον είναι μεγάλο για μια μικρή υπηρεσία του Υπουργείου Εμπορίου που η Washington Post αποκάλεσε «διαβόητα υποχρηματοδοτούμενη και υποστελεχωμένη». Πόσα άτομα στο NIST εργάζονται σε αυτό;

Α: Πρώτον, θα ήθελα να πω ότι στο NIST έχουμε μια θεαματική ιστορία συνεργασίας με ευρείες κοινότητες. Κατά τη σύνθεση του πλαισίου κινδύνου AI, ακούσαμε από περισσότερους από 240 διαφορετικούς οργανισμούς και λάβαμε περίπου 660 δημόσια σχόλια. Όσον αφορά την ποιότητα της παραγωγής και τον αντίκτυπο, δεν φαίνεται να είμαστε μικροί. Έχουμε περισσότερα από δώδεκα άτομα στην ομάδα και επεκτείνουμε.

Ε: Θα αυξηθεί ο προϋπολογισμός της αποστολής AI του NIST από τα τρέχοντα 1,6 δισεκατομμύρια δολάρια;

Α: Το Κογκρέσο γράφει τις επιταγές για εμάς και είμαστε ευγνώμονες για την υποστήριξή τους.

Ε: Το εκτελεστικό διάταγμα σάς δίνει προθεσμία έως τον Ιούλιο για να δημιουργήσετε ένα σύνολο εργαλείων για να διασφαλίσετε την ασφάλεια και την αξιοπιστία της τεχνητής νοημοσύνης. Καταλαβαίνω ότι ονομάσατε αυτήν την «σχεδόν αδύνατη προθεσμία» σε ένα συνέδριο τον περασμένο μήνα.

Α: Ναι, αλλά πρόσθεσα γρήγορα ότι δεν είναι η πρώτη φορά που αντιμετωπίζουμε μια τέτοια πρόκληση, έχουμε μια λαμπρή ομάδα, αφοσιωμένη και ενθουσιασμένη. Όσο για την προθεσμία, δεν είναι ότι ξεκινάμε από το μηδέν. Τον Ιούνιο, συγκροτήσαμε μια δημόσια ομάδα εργασίας για να αντιμετωπίσουμε τέσσερα διαφορετικά σύνολα πολιτικών, συμπεριλαμβανομένων εκείνων που αφορούν τον έλεγχο ταυτότητας συνθετικού περιεχομένου.

Ερ: Μέλη της Επιτροπής Επιστήμης και Τεχνολογίας της Βουλής ανέφεραν σε επιστολή τους τον περασμένο μήνα ότι έμαθαν ότι το NIST σχεδίαζε να εκδώσει επιχορηγήσεις ή βραβεία μέσω ενός νέου ινστιτούτου ασφάλειας τεχνητής νοημοσύνης – υποδηλώνοντας έλλειψη διαφάνειας. Α: Στην πραγματικότητα, διερευνούμε επιλογές για μια ανταγωνιστική διαδικασία για την υποστήριξη συνεργατικών ερευνητικών ευκαιριών. Η επιστημονική μας ανεξαρτησία είναι πολύ σημαντική για εμάς. Ενώ αναλαμβάνουμε μια εκτεταμένη διαδικασία δέσμευσης, είμαστε οι απόλυτοι δημιουργοί αυτού που παράγουμε. Δεν αναθέτουμε ποτέ σε κανέναν άλλον.

Ε: Μια κοινοπραξία που δημιουργήθηκε για να υποστηρίξει το Ινστιτούτο Ασφάλειας AI μπορεί να προκαλέσει διαμάχη λόγω της εμπλοκής του κλάδου. Σε τι πρέπει να συμφωνήσουν τα μέλη της κοινοπραξίας;

Α: Δημοσιεύσαμε ένα πρότυπο για αυτήν τη συμφωνία στον ιστότοπό μας στα τέλη Δεκεμβρίου. Η ανοιχτότητα και η διαφάνεια είναι αυτά που μας ξεχωρίζουν. Το πρότυπο είναι εκεί έξω.

Ε: Το πλαίσιο κινδύνου AI ήταν εθελοντικό, αλλά το Εκτελεστικό Διάταγμα επιβάλλει ορισμένες υποχρεώσεις στους προγραμματιστές. Αυτό περιλαμβάνει την υποβολή μοντέλων μεγάλων γλωσσών για κυβερνητική ομάδα red-teaming (δοκιμή για κινδύνους και τρωτά σημεία) μόλις φτάσουν ένα συγκεκριμένο όριο όσον αφορά το μέγεθος και την υπολογιστική ισχύ. Θα είναι η NIST υπεύθυνη για τον καθορισμό των μοντέλων που περιλαμβάνονται στις κόκκινες ομάδες;

Α: Η δουλειά μας είναι να προωθήσουμε την επιστήμη των μετρήσεων και τα πρότυπα που είναι απαραίτητα για αυτήν την εργασία. Αυτό περιλαμβάνει ορισμένες αξιολογήσεις. Αυτό είναι κάτι που έχουμε κάνει για τους αλγόριθμους αναγνώρισης προσώπου. Όσο για το tasking (κόκκινη ομαδοποίηση), το NIST δεν θα κάνει τίποτα από αυτά. Η δουλειά μας είναι να υποστηρίζουμε τη βιομηχανία στην ανάπτυξη τεχνικά ορθών και επιστημονικά έγκυρων προτύπων. Είμαστε μια μη ρυθμιστική υπηρεσία, ουδέτερη και αντικειμενική.

Ε: Ο τρόπος εκπαίδευσης των AI και ποια προστατευτικά κιγκλιδώματα έχουν ρυθμιστεί για αυτά μπορεί να διαφέρει πολύ. Και μερικές φορές χαρακτηριστικά όπως η ασφάλεια στον κυβερνοχώρο ήταν μια μεταγενέστερη σκέψη. Πώς διασφαλίζουμε ότι ο κίνδυνος αξιολογείται και εντοπίζεται με ακρίβεια – ειδικά όταν μπορεί να μην γνωρίζουμε σε ποια μοντέλα που κυκλοφόρησαν δημόσια εκπαιδεύτηκαν;

Α: Στο Πλαίσιο Διαχείρισης Κινδύνων AI, έχουμε αναπτύξει μια ταξινόμηση αξιοπιστίας, τονίζοντας τη σημασία της εξέτασης της κατά τη διάρκεια του σχεδιασμού, της ανάπτυξης και της ανάπτυξης – συμπεριλαμβανομένης της τακτικής παρακολούθησης και αξιολογήσεων σε όλους τους κύκλους ζωής της τεχνητής νοημοσύνης. Όλοι έχουν μάθει ότι δεν έχουμε την πολυτέλεια να επισκευάζουμε συστήματα τεχνητής νοημοσύνης αφού δεν χρησιμοποιούνται πλέον. Πρέπει να γίνει όσο το δυνατόν νωρίτερα.

Και ναι, πολλά εξαρτώνται από την περίπτωση χρήσης. Πάρτε την αναγνώριση προσώπου. Είναι ένα πράγμα αν το χρησιμοποιώ για να ξεκλειδώνω το τηλέφωνό μου. Για παράδειγμα, όταν οι υπηρεσίες επιβολής του νόμου προσπαθούν να εξιχνιάσουν ένα έγκλημα, μπαίνουν στο παιχνίδι εντελώς διαφορετικές απαιτήσεις ασφάλειας, απορρήτου και ακρίβειας. Οι ανταλλαγές μεταξύ ευκολίας και ασφάλειας, μεροληψίας και ιδιωτικότητας – όλα εξαρτώνται από το πλαίσιο χρήσης.

Leave a Reply

Your email address will not be published. Required fields are marked *