Το AI θα μπορούσε να ευθύνεται για την αποτυχία μας να έρθουμε σε επαφή με εξωγήινους πολιτισμούς

By | May 8, 2024

<span class=sdecoret/Shutterstock” src=”https://s.yimg.com/ny/api/res/1.2/.Yy6dWKNuf3I2R725cV85A–/YXBwaWQ9aGlnaGxhbmRlcjt3PTk2MDtoPTcwNg–/https://media.zenfs_45694/2004 586f0f6a910424064″ data src =”https: f0f6a910424064″/>

Η τεχνητή νοημοσύνη (AI) έχει σημειώσει εκπληκτική πρόοδο τα τελευταία χρόνια. Ορισμένοι επιστήμονες προσπαθούν τώρα να αναπτύξουν τεχνητή υπερνοημοσύνη (ASI) – μια μορφή τεχνητής νοημοσύνης που όχι μόνο θα ξεπερνούσε την ανθρώπινη νοημοσύνη, αλλά δεν θα συνδέεται επίσης με την ταχύτητα της ανθρώπινης μάθησης.

Τι γίνεται όμως αν αυτό το ορόσημο δεν είναι απλώς ένα αξιοσημείωτο επίτευγμα; Τι θα συμβεί αν αντιπροσωπεύει επίσης ένα τεράστιο εμπόδιο στην ανάπτυξη όλων των πολιτισμών, τόσο προκλητικό που καταστρέφει τη μακροπρόθεσμη επιβίωσή τους;

Αυτή η ιδέα είναι το επίκεντρο μιας ερευνητικής εργασίας που δημοσίευσα πρόσφατα στο Acta Astronautica. Θα μπορούσε η τεχνητή νοημοσύνη να είναι το «μεγάλο φίλτρο» του σύμπαντος – ένα κατώφλι τόσο δύσκολο να ξεπεραστεί που εμποδίζει τις περισσότερες ζωές να εξελιχθούν σε διαστημικούς πολιτισμούς;

Αυτή είναι μια ιδέα που θα μπορούσε να εξηγήσει γιατί η Αναζήτηση για Εξωγήινη Νοημοσύνη (Seti) δεν έχει ανακαλύψει ακόμη υπογραφές προηγμένων τεχνολογικών πολιτισμών αλλού στον γαλαξία.

Η υπόθεση του μεγάλου φίλτρου είναι τελικά μια προτεινόμενη λύση στο παράδοξο Fermi. Αυτό εγείρει το ερώτημα γιατί δεν έχουμε ανακαλύψει σημάδια εξωγήινων πολιτισμών σε ένα σύμπαν τεράστιο και αρκετά παλιό ώστε να φιλοξενεί δισεκατομμύρια δυνητικά κατοικήσιμους πλανήτες. Η υπόθεση υποδηλώνει ότι υπάρχουν ανυπέρβλητα εμπόδια στο εξελικτικό χρονοδιάγραμμα των πολιτισμών που τους εμποδίζουν να εξελιχθούν σε διαστημικά όντα.

Πιστεύω ότι η εμφάνιση του ASI θα μπορούσε να είναι ένα τέτοιο φίλτρο. Η ταχεία πρόοδος της τεχνητής νοημοσύνης, που δυνητικά οδηγεί σε ASI, μπορεί να επικαλύπτεται με μια κρίσιμη φάση στην ανάπτυξη ενός πολιτισμού – τη μετάβαση από ένα μονοπλανητικό είδος σε ένα πολυπλανητικό είδος.

Εδώ θα μπορούσαν να αποτύχουν πολλοί πολιτισμοί, καθώς η τεχνητή νοημοσύνη προχωρά πολύ πιο γρήγορα από την ικανότητά μας να το ελέγξουμε ή να εξερευνήσουμε και να εποικίσουμε βιώσιμα το ηλιακό μας σύστημα.

Η πρόκληση με την τεχνητή νοημοσύνη, και ειδικότερα το ASI, έγκειται στον αυτόνομο, αυτοενισχυόμενο και βελτιωτικό χαρακτήρα του. Έχει τη δυνατότητα να βελτιώσει τις δικές του δυνατότητες με ρυθμό που υπερβαίνει τα δικά μας εξελικτικά χρονοδιαγράμματα εκτός τεχνητής νοημοσύνης.

Η πιθανότητα να πάει κάτι σοβαρά στραβά είναι τεράστια, οδηγώντας στην πτώση τόσο του βιολογικού πολιτισμού όσο και του πολιτισμού της τεχνητής νοημοσύνης, προτού να έχουν ποτέ την ευκαιρία να γίνουν πολυπλανητικοί. Για παράδειγμα, καθώς τα έθνη όλο και περισσότερο βασίζονται και παραχωρούν την εξουσία σε αυτόνομα, ανταγωνιστικά συστήματα τεχνητής νοημοσύνης, οι στρατιωτικές δυνατότητες θα μπορούσαν να χρησιμοποιηθούν για να σκοτώσουν και να καταστρέψουν σε άνευ προηγουμένου κλίμακα. Αυτό θα μπορούσε ενδεχομένως να οδηγήσει στην καταστροφή ολόκληρου του πολιτισμού μας, συμπεριλαμβανομένων των ίδιων των συστημάτων AI.

Σε αυτό το σενάριο, εκτιμώ ότι η τυπική διάρκεια ζωής ενός τεχνολογικού πολιτισμού θα μπορούσε να είναι μικρότερη από 100 χρόνια. Αυτός είναι περίπου ο χρόνος μεταξύ της λήψης και της μετάδοσης σημάτων μεταξύ των αστεριών (1960) και της εκτιμώμενης εμφάνισης του ASI στη Γη (2040). Αυτό είναι συγκλονιστικά μικρό σε σύγκριση με την κοσμική χρονική κλίμακα δισεκατομμυρίων ετών.

Εικόνα του αστρικού σμήνος NGC 6440.

Υπάρχει ένας απίστευτος αριθμός πλανητών εκεί έξω. Τηλεσκόπιο NASA/James Webb

Ο συνδυασμός αυτής της εκτίμησης με τις αισιόδοξες εκδοχές της Εξίσωσης Drake – η οποία επιχειρεί να εκτιμήσει τον αριθμό των ενεργών, επικοινωνούντων εξωγήινων πολιτισμών στον Γαλαξία μας – υποδηλώνει ότι υπάρχουν μόνο λίγοι ευφυείς πολιτισμοί ανά πάσα στιγμή. Επιπλέον, όπως και εμείς, μπορεί να είναι αρκετά δύσκολο να εντοπιστούν λόγω των σχετικά μέτριων τεχνολογικών δραστηριοτήτων τους.

Κλήση αφύπνισης

Αυτή η έρευνα δεν είναι απλώς μια προειδοποιητική ιστορία πιθανής καταστροφής. Χρησιμεύει ως ένα κάλεσμα αφύπνισης για την ανθρωπότητα να δημιουργήσει ισχυρά ρυθμιστικά πλαίσια που θα καθοδηγούν την ανάπτυξη της τεχνητής νοημοσύνης, συμπεριλαμβανομένων των στρατιωτικών συστημάτων.

Αυτό δεν αφορά μόνο την πρόληψη της κακόβουλης χρήσης της τεχνητής νοημοσύνης στη Γη. Αφορά επίσης τη διασφάλιση ότι η ανάπτυξη της τεχνητής νοημοσύνης είναι συνεπής με τη μακροπρόθεσμη επιβίωση του είδους μας. Υποδηλώνει ότι πρέπει να διαθέσουμε περισσότερους πόρους για την ανάπτυξη μιας πολυπλανητικής κοινωνίας όσο το δυνατόν γρηγορότερα – ένας στόχος που ήταν αδρανής από τις μεθυστικές μέρες του έργου Apollo, αλλά πρόσφατα αναζωογονήθηκε από τις προόδους από ιδιωτικές εταιρείες.

Όπως σημείωσε ο ιστορικός Yuval Noah Harari, τίποτα στην ιστορία δεν μας έχει προετοιμάσει για τον αντίκτυπο της εισαγωγής ασυνείδητων, υπερευφυών οντοτήτων στον πλανήτη μας. Πρόσφατα, ο αντίκτυπος της αυτόνομης λήψης αποφάσεων της τεχνητής νοημοσύνης οδήγησε εξέχοντες ηγέτες στον τομέα να ζητήσουν μορατόριουμ στην ανάπτυξη της τεχνητής νοημοσύνης μέχρι να τεθεί σε εφαρμογή μια υπεύθυνη μορφή ελέγχου και ρύθμισης.

Αλλά ακόμα κι αν κάθε χώρα συμφώνησε να τηρήσει αυστηρούς κανόνες και κανονισμούς, θα είναι δύσκολο να περιοριστούν οι αδίστακτοι οργανισμοί.

Η ενσωμάτωση της αυτόνομης τεχνητής νοημοσύνης σε στρατιωτικά αμυντικά συστήματα πρέπει να αποτελεί ιδιαίτερη ανησυχία. Υπάρχουν ήδη στοιχεία ότι οι άνθρωποι θα εγκαταλείψουν οικειοθελώς σημαντική δύναμη σε όλο και πιο ισχυρά συστήματα, επειδή μπορούν να εκτελέσουν χρήσιμες εργασίες πολύ πιο γρήγορα και αποτελεσματικά χωρίς ανθρώπινη παρέμβαση. Δεδομένων των στρατηγικών πλεονεκτημάτων που προσφέρει η τεχνητή νοημοσύνη, όπως καταδεικνύεται καταστροφικά πρόσφατα στη Γάζα, οι κυβερνήσεις είναι επομένως απρόθυμες να ρυθμίσουν τον τομέα αυτό.

Αυτό σημαίνει ότι βρισκόμαστε ήδη επικίνδυνα σε έναν γκρεμό όπου τα αυτόνομα όπλα λειτουργούν πέρα ​​από τα ηθικά όρια και παρακάμπτουν το διεθνές δίκαιο. Σε έναν τέτοιο κόσμο, η παράδοση της εξουσίας σε συστήματα τεχνητής νοημοσύνης για να αποκτήσουν ένα τακτικό πλεονέκτημα θα μπορούσε ακούσια να πυροδοτήσει μια αλυσίδα ταχέως κλιμακούμενων, εξαιρετικά καταστροφικών γεγονότων. Σε μια στιγμή, η συλλογική νοημοσύνη του πλανήτη μας θα μπορούσε να εξαλειφθεί.

Η ανθρωπότητα βρίσκεται σε ένα κρίσιμο σημείο της τεχνολογικής της εξέλιξης. Οι ενέργειές μας τώρα θα μπορούσαν να καθορίσουν αν θα γίνουμε ένας διαστρικός πολιτισμός που διαρκεί ή θα υποκύψουμε στις προκλήσεις των δικών μας δημιουργιών.

Η χρήση του Seti ως φακού μέσω του οποίου μπορούμε να εξετάσουμε τη μελλοντική μας ανάπτυξη προσθέτει μια νέα διάσταση στη συζήτηση για το μέλλον της τεχνητής νοημοσύνης. Εναπόκειται σε όλους μας να διασφαλίσουμε ότι όταν φτάνουμε στα αστέρια, δεν το κάνουμε ως προειδοποιητικό παραμύθι για άλλους πολιτισμούς, αλλά ως φάρος ελπίδας – για ένα είδος που έχει μάθει να ευδοκιμεί παράλληλα με την τεχνητή νοημοσύνη.

Αυτό το άρθρο αναδημοσιεύεται από το The Conversation με άδεια Creative Commons. Διαβάστε το αρχικό άρθρο.

Η συζήτησηΗ συζήτηση

Η συζήτηση

Ο Michael Garrett δεν εργάζεται, δεν συμβουλεύει, δεν κατέχει μετοχές ή δεν λαμβάνει χρηματοδότηση από οποιαδήποτε εταιρεία ή οργανισμό που θα επωφεληθεί από αυτό το άρθρο και δεν έχει αποκαλύψει σχετικές σχέσεις πέρα ​​από την ακαδημαϊκή τους απασχόληση.

Leave a Reply

Your email address will not be published. Required fields are marked *