Δείτε πώς μπορείτε να ενεργοποιήσετε το AI πριν να είναι πολύ αργά

By | May 16, 2024

Φωτογραφία: Getty Images

ΟΈχουν περάσει μόνο 16 μήνες, αλλά η κυκλοφορία του ChatGPT τον Νοέμβριο του 2022 μοιάζει ήδη με αρχαία ιστορία τεχνητής νοημοσύνης. Εκατοντάδες δισεκατομμύρια δολάρια, τόσο δημόσια όσο και ιδιωτικά, ρέουν στην τεχνητή νοημοσύνη. Χιλιάδες προϊόντα με τεχνητή νοημοσύνη έχουν αναπτυχθεί, συμπεριλαμβανομένου μόλις αυτή την εβδομάδα του νέου GPT-4o. Τώρα όλοι, από φοιτητές έως επιστήμονες, χρησιμοποιούν αυτά τα μεγάλα γλωσσικά μοντέλα. Ο κόσμος μας και ειδικά ο κόσμος της τεχνητής νοημοσύνης έχει αλλάξει σημαντικά.

Αλλά το πραγματικό βραβείο της ανθρώπινης τεχνητής νοημοσύνης – ή τεχνητής γενικής νοημοσύνης (AGI) – δεν έχει ακόμη επιτευχθεί. Μια τέτοια ανακάλυψη θα σήμαινε μια τεχνητή νοημοσύνη που μπορεί να κάνει την πιο παραγωγική από οικονομική άποψη δουλειά, να επικοινωνεί με άλλους, να διεξάγει επιστήμη, να δημιουργεί και να διατηρεί κοινωνικά δίκτυα, να ασκεί πολιτική και να συμμετέχει σε σύγχρονο πόλεμο. Ο κύριος περιορισμός για όλες αυτές τις εργασίες σήμερα είναι η γνώση. Η άρση αυτού του περιορισμού θα άλλαζε τον κόσμο. Ωστόσο, πολλά από τα κορυφαία εργαστήρια τεχνητής νοημοσύνης στον κόσμο πιστεύουν ότι αυτή η τεχνολογία θα μπορούσε να γίνει πραγματικότητα πριν από το τέλος αυτής της δεκαετίας.

Αυτό θα μπορούσε να είναι μια τεράστια ευλογία για την ανθρωπότητα. Αλλά η τεχνητή νοημοσύνη θα μπορούσε επίσης να είναι εξαιρετικά επικίνδυνη, ειδικά αν δεν μπορούμε να την ελέγξουμε. Η ανεξέλεγκτη τεχνητή νοημοσύνη θα μπορούσε να διεισδύσει σε διαδικτυακά συστήματα που τροφοδοτούν μεγάλο μέρος του κόσμου και να τα χρησιμοποιήσει για να επιτύχει τους στόχους του. Θα μπορούσε να αποκτήσει πρόσβαση στους λογαριασμούς μας στα μέσα κοινωνικής δικτύωσης και να πραγματοποιήσει προσαρμοσμένους χειρισμούς σε μεγάλο αριθμό ατόμων. Ακόμη χειρότερα, το στρατιωτικό προσωπικό που είναι υπεύθυνο για πυρηνικά όπλα θα μπορούσε να χειραγωγηθεί από μια τεχνητή νοημοσύνη για να μεταβιβάσει τα διαπιστευτήριά του, αποτελώντας μεγάλη απειλή για την ανθρωπότητα.

Θα ήταν ένα εποικοδομητικό βήμα να γίνει αυτό όσο το δυνατόν πιο δύσκολο ενισχύοντας τις παγκόσμιες άμυνες έναντι εχθρικών διαδικτυακών παραγόντων. Αλλά αν η τεχνητή νοημοσύνη μπορεί να πείσει τους ανθρώπους, κάτι που ήδη κάνει καλύτερα από εμάς, δεν υπάρχει γνωστή άμυνα.

Για αυτούς τους λόγους, πολλοί ερευνητές ασφάλειας τεχνητής νοημοσύνης σε εργαστήρια τεχνητής νοημοσύνης όπως το OpenAI, το Google DeepMind και το Anthropic, καθώς και μη κερδοσκοπικοί οργανισμοί που εστιάζουν στην ασφάλεια, έχουν σταματήσει να προσπαθούν να περιορίσουν τις ενέργειες της μελλοντικής τεχνητής νοημοσύνης. Αντίθετα, επικεντρώνονται στη δημιουργία «ευθυγραμμισμένης» ή εγγενώς ασφαλούς τεχνητής νοημοσύνης. Μια ευθυγραμμισμένη τεχνητή νοημοσύνη θα μπορούσε να γίνει αρκετά ισχυρή ώστε να εξαφανίσει την ανθρωπότητα, αλλά αυτό δεν πρέπει να συμβαίνει θέλω για να γίνει αυτό.

Υπάρχουν μεγάλα ερωτηματικά σχετικά με το ευθυγραμμισμένο AI. Πρώτον, το τεχνικό μέρος της ευθυγράμμισης είναι ένα άλυτο επιστημονικό πρόβλημα. Πρόσφατα, ορισμένοι από τους κορυφαίους ερευνητές που εργάζονται για τη στόχευση της υπεράνθρωπης τεχνητής νοημοσύνης άφησαν το OpenAI δυσαρεστημένοι, μια κίνηση που δεν εμπνέει εμπιστοσύνη. Δεύτερον, δεν είναι σαφές σε τι θα στόχευε μια υπερέξυπνη τεχνητή νοημοσύνη. Αν ήταν ένα ακαδημαϊκό σύστημα αξιών όπως ο ωφελιμισμός, θα μπορούσαμε γρήγορα να ανακαλύψουμε ότι οι αξίες των περισσότερων ανθρώπων στην πραγματικότητα δεν ευθυγραμμίζονται με αυτές τις μακρινές ιδέες, οπότε η ασταμάτητη υπερευφυΐα θα μπορούσε να ενεργεί για πάντα ενάντια στη θέληση των περισσότερων ανθρώπων. Εάν η εστίαση ήταν στις πραγματικές προθέσεις των ανθρώπων, θα χρειαζόμασταν έναν τρόπο να συνοψίσουμε αυτές τις πολύ διαφορετικές προθέσεις. Ενώ ιδεαλιστικές λύσεις όπως ένα συμβούλιο των Ηνωμένων Εθνών ή λύσεις που βασίζονται σε τεχνητή νοημοσύνη Αλγόριθμοι συγκέντρωσης αποφάσεων βρίσκονται εντός του πεδίου των δυνατοτήτων, υπάρχει ανησυχία ότι η απόλυτη δύναμη της υπερευφυΐας θα συγκεντρωθεί στα χέρια πολύ λίγων πολιτικών ή CEOs. Αυτό φυσικά θα ήταν απαράδεκτο και θα ήταν άμεσος κίνδυνος για όλους τους άλλους ανθρώπους.

Διαβάστε περισσότερα: Ο μόνος τρόπος αντιμετώπισης της απειλής της τεχνητής νοημοσύνης; Κλείσε το

Αποσυναρμολόγηση της ωρολογιακής βόμβας

Εάν δεν βρούμε έναν τρόπο να προστατεύσουμε τουλάχιστον την ανθρωπότητα από την εξαφάνιση και, ιδανικά, από μια ψυχική δυστοπία, η τεχνητή νοημοσύνη που θα μπορούσε να γίνει ανεξέλεγκτη δεν θα πρέπει να δημιουργηθεί εξαρχής. Αυτή η λύση, η οποία αναβάλλει την ανάπτυξη ανθρώπινης ή υπερευφυούς τεχνητής νοημοσύνης έως ότου αντιμετωπίσουμε τις ανησυχίες για την ασφάλεια, έχει το μειονέκτημα ότι οι μεγάλες υποσχέσεις της τεχνητής νοημοσύνης – από τη θεραπεία ασθενειών έως τη δημιουργία τεράστιας οικονομικής ανάπτυξης – θα πρέπει να περιμένουν.

Η διακοπή της τεχνητής νοημοσύνης μπορεί να φαίνεται ριζοσπαστική ιδέα σε ορισμένους, αλλά θα είναι απαραίτητη εάν η τεχνητή νοημοσύνη συνεχίσει να βελτιώνεται χωρίς να καταλήξουμε σε ένα ικανοποιητικό σχέδιο ευθυγράμμισης. Όταν οι δυνατότητες τεχνητής νοημοσύνης φτάνουν σχεδόν σε επίπεδα υιοθέτησης, η μόνη ρεαλιστική επιλογή είναι οι κυβερνήσεις να απαιτήσουν αυστηρά από τα εργαστήρια να σταματήσουν την ανάπτυξη. Θα ήταν αυτοκτονικό να κάνουμε διαφορετικά.

Και η διακοπή της τεχνητής νοημοσύνης μπορεί να μην είναι τόσο δύσκολη όσο φαίνεται ότι είναι ορισμένοι. Επί του παρόντος, σχετικά λίγες μεγάλες εταιρείες έχουν τους πόρους για να πραγματοποιήσουν κορυφαίες εκπαιδευτικές σειρές, επομένως η επιβολή μιας παύσης συνήθως περιορίζεται από πολιτική βούληση, τουλάχιστον βραχυπρόθεσμα. Ωστόσο, μακροπρόθεσμα, μια παύση μπορεί να είναι δύσκολο να επιβληθεί λόγω βελτιώσεων υλικού και αλγορίθμων. Θα απαιτείται επιβολή μεταξύ χωρών, για παράδειγμα μέσω μιας συνθήκης, όπως και η επιβολή εντός χωρών με βήματα όπως αυστηροί έλεγχοι υλικού.

Στο μεταξύ, οι επιστήμονες πρέπει να κατανοήσουν καλύτερα τους κινδύνους. Αν και υπάρχουν εκτεταμένες ανησυχίες στην επιστημονική κοινότητα, δεν υπάρχει ακόμη συναίνεση. Στη νέα Διεθνή Επιστημονική Έκθεση για την Προηγμένη Ασφάλεια AI, η οποία στοχεύει να εξελιχθεί σε μια «Διακυβερνητική Επιτροπή για την Κλιματική Αλλαγή για τους κινδύνους της τεχνητής νοημοσύνης», οι επιστήμονες θα πρέπει να επισημοποιήσουν τα σημεία συμφωνίας τους και να δείξουν πού και γιατί διαφέρουν οι απόψεις τους. Τα κορυφαία ακαδημαϊκά περιοδικά θα πρέπει να είναι πιο ανοιχτά στην έρευνα για τους υπαρξιακούς κινδύνους, ακόμα κι αν αυτή φαίνεται εικαστική. Το μέλλον δεν παρέχει σημεία δεδομένων, αλλά η ματιά στο μέλλον είναι εξίσου σημαντική για την τεχνητή νοημοσύνη όσο και για την κλιματική αλλαγή.

Οι κυβερνήσεις, από την πλευρά τους, διαδραματίζουν τεράστιο ρόλο στην ανάπτυξη της τεχνητής νοημοσύνης. Αυτό ξεκινά με την επίσημη αναγνώριση του υπαρξιακού κινδύνου της τεχνητής νοημοσύνης, όπως έχει ήδη γίνει από τις ΗΠΑ, το Ηνωμένο Βασίλειο και άλλες χώρες ΕΕ., και ίδρυση ινστιτούτων ασφάλειας AI. Οι κυβερνήσεις θα πρέπει επίσης να καταρτίσουν σχέδια για το τι πρέπει να κάνουν στα πιο σημαντικά και πιθανά σενάρια και πώς να αντιμετωπίσουν τα πολλά ανύπαρκτα προβλήματα του AGI, όπως η μαζική ανεργία, η δραματική ανισότητα και η κατανάλωση ενέργειας. Οι κυβερνήσεις θα πρέπει να δημοσιοποιούν τις στρατηγικές τους AGI, επιτρέποντας την επιστημονική, βιομηχανική και δημόσια αξιολόγηση.

Είναι ένα μεγάλο βήμα προς τα εμπρός το γεγονός ότι οι μεγάλες χώρες της τεχνητής νοημοσύνης συζητούν εποικοδομητικά την κοινή πολιτική σε εξαμηνιαίες συνόδους κορυφής για την ασφάλεια της τεχνητής νοημοσύνης, συμπεριλαμβανομένης μιας στη Σεούλ στις 21-22 Μαΐου. Ωστόσο, αυτή η διαδικασία πρέπει να παρακολουθείται και να επεκταθεί. Η εργασία προς την κατεύθυνση μιας κοινής αλήθειας σχετικά με τους υπαρξιακούς κινδύνους της τεχνητής νοημοσύνης και η έκφραση κοινών ανησυχιών μεταξύ και των 28 προσκεκλημένων χωρών θα ήταν ήδη ένα σημαντικό βήμα προόδου προς αυτή την κατεύθυνση. Επιπλέον, πρέπει να συμφωνηθούν σχετικά απλά μέτρα, όπως η δημιουργία συστημάτων αδειοδότησης, αξιολογήσεις μοντέλων, παρακολούθηση υλικού τεχνητής νοημοσύνης, επέκταση της ευθύνης για εργαστήρια τεχνητής νοημοσύνης και εξαίρεση περιεχομένου που προστατεύεται από πνευματικά δικαιώματα από την εκπαίδευση. Πρέπει να συσταθεί μια διεθνής υπηρεσία τεχνητής νοημοσύνης για να επιβλέπει την εκτέλεση.

Είναι θεμελιωδώς δύσκολο να προβλεφθεί η επιστημονική πρόοδος. Ωστόσο, η υπεράνθρωπη τεχνητή νοημοσύνη πιθανότατα θα επηρεάσει τον πολιτισμό μας περισσότερο από οτιδήποτε άλλο αυτόν τον αιώνα. Το να περιμένεις απλώς να εκραγεί η ωρολογιακή βόμβα δεν είναι μια βιώσιμη στρατηγική. Ας αξιοποιήσουμε τον χρόνο που έχουμε όσο πιο συνετά γίνεται.

Επικοινωνήστε μαζί μας στο Letters@time.com.

Leave a Reply

Your email address will not be published. Required fields are marked *