Πώς φτάσαμε εδώ και πού πάμε

By | June 28, 2024

<span-Klasse=SuPatMaN / Shutterstock” src=”https://s.yimg.com/ny/api/res/1.2/57JPmuqYCW5Y4XcXmtduBg–/YXBwaWQ9aGlnaGxhbmRlcjt3PTk2MDtoPTU0MA–/https://media.zenfs.com/38f656545645666656665666666666666666666666666666 79ba3262b2eb71d” data-src = “https://s.yimg.com/ny/api/res/1.2/57JPmuqYCW5Y4XcXmtduBg–/YXBwaWQ9aGlnaGxhbmRlcjt3PTk2MDtoPTU0MA–/https://media.zenfs.com/en/the_conversation 3 262b2eb71d”/>

Δεδομένου του τρέχοντος ενθουσιασμού για την τεχνητή νοημοσύνη (AI), θα μπορούσε κανείς εύκολα να υποθέσει ότι πρόκειται για μια νέα καινοτομία. Στην πραγματικότητα, η τεχνητή νοημοσύνη υπάρχει με τη μια ή την άλλη μορφή για περισσότερα από 70 χρόνια. Για να κατανοήσουμε την τρέχουσα γενιά εργαλείων τεχνητής νοημοσύνης και πού μπορεί να οδηγήσουν, είναι χρήσιμο να γνωρίζουμε πώς φτάσαμε εδώ.

Κάθε γενιά εργαλείων τεχνητής νοημοσύνης μπορεί να θεωρηθεί ως βελτίωση σε σχέση με τις προηγούμενες, αλλά κανένα από αυτά τα εργαλεία δεν στοχεύει στην ανάπτυξη της συνείδησης.

Το 1950, ο μαθηματικός και πρωτοπόρος των υπολογιστών Άλαν Τούρινγκ δημοσίευσε ένα άρθρο του οποίου η πρώτη πρόταση ήταν: «Προτείνω να εξετάσουμε το ερώτημα: «Μπορούν οι μηχανές να σκεφτούν;»». Στη συνέχεια προτείνει κάτι που ονομάζεται παιχνίδι μίμησης, που τώρα είναι κοινώς γνωστό ως τεστ Turing. Ένα μηχάνημα θεωρείται έξυπνο εάν δεν μπορεί να διακριθεί από έναν άνθρωπο σε μια τυφλή συνομιλία.

Πέντε χρόνια αργότερα, ο όρος «τεχνητή νοημοσύνη» δημοσιεύτηκε για πρώτη φορά σε μια πρόταση για το καλοκαιρινό ερευνητικό πρόγραμμα Dartmouth για την Τεχνητή Νοημοσύνη.

Από αυτές τις πρώτες απαρχές, ένας κλάδος της τεχνητής νοημοσύνης που έγινε γνωστός ως έμπειρα συστήματα αναπτύχθηκε ξεκινώντας από τη δεκαετία του 1960. Αυτά τα συστήματα έχουν σχεδιαστεί για να συλλαμβάνουν την ανθρώπινη τεχνογνωσία σε εξειδικευμένους τομείς. Χρησιμοποίησαν σαφείς αναπαραστάσεις γνώσης και επομένως αποτελούν παράδειγμα αυτού που ονομάζεται συμβολική τεχνητή νοημοσύνη.

Υπήρξαν πολλές πρώιμες επιτυχίες που έτυχαν μεγάλης προσοχής, συμπεριλαμβανομένων συστημάτων για τον εντοπισμό οργανικών μορίων, τη διάγνωση λοιμώξεων του αίματος και την αναζήτηση ορυκτών. Ένα από τα πιο εντυπωσιακά παραδείγματα ήταν ένα σύστημα που ονομάζεται R1, το οποίο το 1982 φέρεται να εξοικονομούσε 25 εκατομμύρια δολάρια στην Digital Equipment Corporation ετησίως αναπτύσσοντας αποτελεσματικές διαμορφώσεις των συστημάτων μικροϋπολογιστών της.

Το κύριο πλεονέκτημα των έμπειρων συστημάτων ήταν ότι ένας ειδικός σε θέματα μπορούσε, καταρχήν, να δημιουργήσει και να διατηρήσει τη βάση γνώσεων του υπολογιστή χωρίς καμία γνώση προγραμματισμού. Ένα στοιχείο λογισμικού που ονομάζεται μηχανή συμπερασμάτων εφάρμοσε στη συνέχεια αυτή τη γνώση για να λύσει νέα προβλήματα εντός του πεδίου, με μια αλυσίδα αποδεικτικών στοιχείων που παρέχει κάποιο είδος εξήγησης.

Ήταν στη μόδα τη δεκαετία του 1980 και οι εταιρείες ήταν πρόθυμες να αναπτύξουν τα δικά τους εξειδικευμένα συστήματα. Εξακολουθούν να αποτελούν χρήσιμο μέρος της τεχνητής νοημοσύνης σήμερα.

Εισαγάγετε τη μηχανική εκμάθηση

Ο ανθρώπινος εγκέφαλος περιέχει περίπου 100 δισεκατομμύρια νευρικά κύτταρα, ή νευρώνες, που συνδέονται μεταξύ τους με μια δενδριτική (διακλαδισμένη) δομή. Ενώ τα έμπειρα συστήματα στόχευαν να μοντελοποιήσουν την ανθρώπινη γνώση, εμφανίστηκε επίσης ένα ξεχωριστό πεδίο που ονομάζεται συνδεσιμισμός, το οποίο είχε ως στόχο να μοντελοποιήσει τον ανθρώπινο εγκέφαλο με πιο κυριολεκτικό τρόπο. Το 1943, δύο ερευνητές με το όνομα Warren McCulloch και Walter Pitts είχαν δημιουργήσει ένα μαθηματικό μοντέλο νευρώνων στο οποίο ο καθένας παρήγαγε μια δυαδική έξοδο ανάλογα με τις εισόδους του.


Διαβάστε περισσότερα: Η τεχνητή νοημοσύνη θα είναι σύντομα ακατανόητη για τον άνθρωπο – η ιστορία των νευρωνικών δικτύων εξηγεί γιατί


Μία από τις πρώτες εφαρμογές υπολογιστών συνδεδεμένων νευρώνων αναπτύχθηκε από τους Bernard Widrow και Ted Hoff το 1960. Τέτοιες εξελίξεις ήταν ενδιαφέρουσες αλλά είχαν περιορισμένη πρακτική χρήση μέχρι που αναπτύχθηκε το 1986 ένας αλγόριθμος εκμάθησης για ένα μοντέλο λογισμικού που ονομάζεται Multi-Layered Perceptron (MLP).

Το MLP είναι μια συστοιχία τυπικά τριών ή τεσσάρων στρωμάτων απλών προσομοιωμένων νευρώνων, με κάθε στρώμα να συνδέεται πλήρως με το επόμενο. Ο αλγόριθμος εκμάθησης για το MLP ήταν μια σημαντική ανακάλυψη. Ενίσχυσε το πρώτο πρακτικό εργαλείο που μπορούσε να μάθει από ένα σύνολο παραδειγμάτων (τα δεδομένα εκπαίδευσης) και στη συνέχεια να γενικεύσει έτσι ώστε να μπορεί να ταξινομήσει προηγουμένως άγνωστα δεδομένα εισόδου (τα δεδομένα δοκιμής).

Αυτό επιτεύχθηκε με την ανάθεση αριθμητικών βαρών στις συνδέσεις μεταξύ των νευρώνων και την προσαρμογή τους για την επίτευξη της καλύτερης ταξινόμησης με τα δεδομένα εκπαίδευσης πριν χρησιμοποιηθεί η μέθοδος ταξινόμησης προηγουμένως άγνωστων παραδειγμάτων.

Το MLP μπορούσε να χειριστεί μια ποικιλία πρακτικών εφαρμογών υπό την προϋπόθεση ότι τα δεδομένα ήταν σε μορφή που μπορεί να χρησιμοποιηθεί από το σύστημα. Ένα κλασικό παράδειγμα είναι η αναγνώριση χειρόγραφων χαρακτήρων, αλλά μόνο εάν οι εικόνες έχουν υποστεί προεπεξεργασία για να φιλτράρουν τα πιο σημαντικά χαρακτηριστικά.

Νεότερα μοντέλα AI

Μετά την επιτυχία του MLP, άρχισαν να εμφανίζονται πολυάριθμες εναλλακτικές μορφές νευρωνικών δικτύων. Ένα σημαντικό ήταν το Συνελικτικό Νευρωνικό Δίκτυο (CNN) το 1998, το οποίο ήταν παρόμοιο με ένα MLP εκτός από τα πρόσθετα στρώματα νευρώνων για την ανίχνευση των βασικών χαρακτηριστικών μιας εικόνας, εξαλείφοντας την ανάγκη για προεπεξεργασία.

Τόσο το MLP όσο και το CNN ήταν διακριτικά μοντέλα, που σημαίνει ότι μπορούσαν να λάβουν μια απόφαση, συνήθως ταξινομώντας τα στοιχεία τους για να παράγουν μια ερμηνεία, διάγνωση, πρόβλεψη ή σύσταση. Εν τω μεταξύ, άλλα μοντέλα νευρωνικών δικτύων αναπτύχθηκαν που ήταν παραγωγικά, που σημαίνει ότι θα μπορούσαν να δημιουργήσουν κάτι νέο αφού είχαν εκπαιδευτεί σε μεγάλο αριθμό προηγούμενων παραδειγμάτων.

Τα γενετικά νευρωνικά δίκτυα θα μπορούσαν να παράγουν κείμενο, εικόνες ή μουσική και να δημιουργήσουν νέες ακολουθίες που βοηθούν στις επιστημονικές ανακαλύψεις.

Δύο μοντέλα γενετικών νευρωνικών δικτύων έχουν ξεχωρίσει: τα δίκτυα παραγωγής-αντίπαλων δικτύων (GAN) και τα δίκτυα μετασχηματιστών. Τα GAN επιτυγχάνουν καλά αποτελέσματα επειδή είναι εν μέρει «αντίπαλοι». Μπορείτε να το σκεφτείτε αυτό ως έναν ενσωματωμένο κριτικό που απαιτεί βελτιωμένη ποιότητα από το στοιχείο “δημιουργίας”.

Τα δίκτυα μετασχηματιστών έχουν γίνει δημοφιλή μέσω μοντέλων όπως το GPT4 (Generative Pre-trained Transformer 4) και η έκδοση που βασίζεται σε κείμενο ChatGPT. Αυτά τα μοντέλα μεγάλων γλωσσών (LLM) εκπαιδεύτηκαν χρησιμοποιώντας τεράστια σύνολα δεδομένων από το Διαδίκτυο. Η ανθρώπινη ανατροφοδότηση βελτιώνει ακόμη περισσότερο την απόδοσή σας μέσω της λεγόμενης ενισχυτικής μάθησης.

Το εκτεταμένο σύνολο δεδομένων εκπαίδευσης όχι μόνο έχει ως αποτέλεσμα εντυπωσιακές παραγωγικές επιδόσεις, αλλά σημαίνει επίσης ότι τέτοια δίκτυα δεν περιορίζονται πλέον σε εξειδικευμένους στενούς τομείς όπως οι προκάτοχοί τους, αλλά μπορούν πλέον να γενικευθούν για να καλύπτουν οποιοδήποτε θέμα.

Πού πηγαίνει η τεχνητή νοημοσύνη;

Οι δυνατότητες των LLM έχουν οδηγήσει σε τρομερές προβλέψεις ότι η τεχνητή νοημοσύνη θα καταλάβει τον κόσμο. Κατά τη γνώμη μου, μια τέτοια τρομοκρατία είναι αδικαιολόγητη. Αν και τα τρέχοντα μοντέλα είναι προφανώς πιο ισχυρά από τα προκάτοχά τους, η εξέλιξη συνεχίζει να είναι σαφώς προς μεγαλύτερη χωρητικότητα, αξιοπιστία και ακρίβεια, παρά προς οποιαδήποτε μορφή συνειδητοποίησης.

Ο καθηγητής Michael Wooldridge σημείωσε στην κατάθεσή του το 2017 στη Βρετανική Βουλή των Λόρδων: «Το όνειρο του Χόλιγουντ για τις συνειδητοποιημένες μηχανές δεν φαίνεται, και στην πραγματικότητα δεν βλέπω κανένα μονοπάτι που θα μας οδηγήσει εκεί, επτά χρόνια αργότερα, η αξιολόγησή του παραμένει.

Υπάρχουν πολλές θετικές και συναρπαστικές πιθανές εφαρμογές για την τεχνητή νοημοσύνη, αλλά μια ματιά στην ιστορία δείχνει ότι η μηχανική εκμάθηση δεν είναι το μόνο εργαλείο. Η συμβολική τεχνητή νοημοσύνη εξακολουθεί να έχει έναν ρόλο να παίξει, καθώς επιτρέπει τη συμπερίληψη γνωστών γεγονότων, γνώσεων και ανθρώπινων προοπτικών.

Για παράδειγμα, ένα αυτοοδηγούμενο αυτοκίνητο μπορεί να διδαχθεί τους κανόνες του δρόμου αντί να τους μάθει με το παράδειγμα. Ένα ιατρικό διαγνωστικό σύστημα μπορεί να ελεγχθεί έναντι της ιατρικής γνώσης για να επαληθεύσει και να εξηγήσει τα αποτελέσματα ενός συστήματος μηχανικής μάθησης.

Η κοινωνική γνώση μπορεί να χρησιμοποιηθεί για να φιλτράρει προσβλητικά ή μεροληπτικά αποτελέσματα. Το μέλλον φαίνεται λαμπρό και θα απαιτήσει τη χρήση μιας σειράς τεχνικών τεχνητής νοημοσύνης, συμπεριλαμβανομένων ορισμένων που υπάρχουν εδώ και πολλά χρόνια.

Αυτό το άρθρο αναδημοσιεύεται από το The Conversation με άδεια Creative Commons. Διαβάστε το αρχικό άρθρο.

Η συζήτηση

Η συζήτηση

Ο Adrian Hopgood εργάζεται εδώ και καιρό χωρίς αμοιβή με την LPA Ltd, τους προγραμματιστές του συμβολικού εργαλείου AI VisiRule.

Leave a Reply

Your email address will not be published. Required fields are marked *