Γιατί τα chatbot AI εμφανίζουν μερικές φορές εσφαλμένες ή παραπλανητικές πληροφορίες;

By | May 31, 2024

Η νέα δυνατότητα αναζήτησης της Google, το AI Overviews, αντιμετωπίζει αυξανόμενη αντίθεση αφού οι χρήστες επεσήμαναν ορισμένες ανακριβείς και παραπλανητικές απαντήσεις σε ερωτήματα αναζήτησης.

Το AI Overview, το οποίο κυκλοφόρησε πριν από δύο εβδομάδες, εμφανίζει μια σύνοψη απαντήσεων σε κοινές ερωτήσεις Αναζήτησης Google στο επάνω μέρος της σελίδας, τις οποίες η εφαρμογή αντλεί από διάφορες πηγές στον ιστό.

Ο στόχος της νέας λειτουργίας είναι να βοηθήσει τους χρήστες να απαντήσουν σε «πιο περίπλοκες ερωτήσεις», σύμφωνα με μια Google καταχώρηση στο μπλογκ.

Αντίθετα, δόθηκαν ψευδείς απαντήσεις, όπως να ζητηθεί από τον χρήστη να βάλει τυρί στην πίτσα αν αυτή χαλαρώσει, να φάει πέτρες για να παραμείνει υγιής ή ότι ο πρώην πρόεδρος των ΗΠΑ Μπαράκ Ομπάμα ήταν μουσουλμάνος – μια θεωρία συνωμοσίας, η οποία τώρα έχει διαψευσθεί.

Οι απαντήσεις επισκόπησης AI είναι οι πιο πρόσφατες σε μια σειρά παραδειγμάτων λανθασμένων απαντήσεων από μοντέλα chatbot.

Ενας Μελέτη του Vectaraμια παραγωγική εκκίνηση με τεχνητή νοημοσύνη, διαπίστωσε ότι τα chatbots AI αποτελούν πληροφορίες μεταξύ 3 και 27 τοις εκατό των περιπτώσεων.

Τι είναι οι παραισθήσεις AI;

Τα μεγάλα γλωσσικά μοντέλα (LLM), τα οποία αποτελούν τη βάση των chatbots όπως το ChatGPT του OpenAI και το Gemini της Google, μαθαίνουν να προβλέπουν μια απάντηση με βάση τα παρατηρούμενα μοτίβα.

Σύμφωνα με τον Hanan Ouazan, συνεργάτη και επικεφαλής του Generative AI στο Artefact, το μοντέλο υπολογίζει την πιο πιθανή επόμενη λέξη για να απαντήσει στην ερώτησή σας με βάση το περιεχόμενο της βάσης δεδομένων.

«Έτσι ακριβώς λειτουργούμε ως άνθρωποι, σκεφτόμαστε πριν μιλήσουμε», είπε στο Euronews.

Αλλά μερικές φορές τα δεδομένα εκπαίδευσης του μοντέλου μπορεί να είναι ελλιπή ή παραμορφωμένα, οδηγώντας σε λανθασμένες απαντήσεις ή «παραισθήσεις» από το chatbot.

Ο Alexander Sukharevsky, ανώτερος συνεργάτης στο QuantumBlack στο McKinsey, πιστεύει ότι είναι πιο ακριβές να αποκαλούμε την τεχνητή νοημοσύνη «υβριδική τεχνολογία» επειδή οι απαντήσεις των chatbots «υπολογίζονται μαθηματικά» με βάση τα δεδομένα που παρατηρούν.

Σύμφωνα με την Google, δεν υπάρχει μόνο ένας λόγος για τον οποίο εμφανίζονται παραισθήσεις: μπορεί να είναι ανεπαρκή δεδομένα εκπαίδευσης για το μοντέλο, εσφαλμένες υποθέσεις ή κρυφές προκαταλήψεις στις πληροφορίες που χρησιμοποιεί το chatbot.

{{related align=”center” size=”fullwidth” ratio=”auto” storyIdList=”8461182″ data=’ Το νέο εργαλείο σύνοψης τεχνητής νοημοσύνης της Google προκαλεί ανησυχίες μετά την εμφάνιση παραπλανητικών απαντήσεων ‘ }}

Η Google έχει εντοπίσει διάφορους τύπους παραισθήσεων τεχνητής νοημοσύνης, συμπεριλαμβανομένων ψευδών προβλέψεων γεγονότων που μπορεί να μην συμβούν, ψευδώς θετικών με τον εντοπισμό ανύπαρκτων απειλών και ψευδών αρνητικών που μπορεί να αποτύχουν να ανιχνεύσουν με ακρίβεια έναν καρκινικό όγκο.

Ωστόσο, η Google παραδέχεται ότι οι παραισθήσεις μπορεί να έχουν σοβαρές συνέπειες. Για παράδειγμα, ένα μοντέλο τεχνητής νοημοσύνης στην υγειονομική περίθαλψη θα μπορούσε εσφαλμένα να αναγνωρίσει ένα καλοήθη μοντέλο δέρματος ως κακοήθη, γεγονός που θα μπορούσε να οδηγήσει σε «περιττές ιατρικές παρεμβάσεις».

Δεν είναι όλες οι παραισθήσεις κακές, λέει ο Igor Sevo, επικεφαλής της τεχνητής νοημοσύνης στην HTEC Group, μια παγκόσμια εταιρεία ανάπτυξης προϊόντων. Εξαρτάται μόνο από το σε τι χρησιμοποιείται το AI.

«Σε δημιουργικές καταστάσεις, οι παραισθήσεις είναι καλές», είπε ο Sevo, επισημαίνοντας ότι τα μοντέλα τεχνητής νοημοσύνης μπορούν να γράφουν νέα αποσπάσματα κειμένου ή email με συγκεκριμένη φωνή ή στυλ. «Το ερώτημα τώρα είναι πώς να κάνουμε τα μοντέλα να κάνουν διάκριση μεταξύ δημιουργικού και αληθινού», είπε.

{{related align=”center” size=”fullwidth” ratio=”auto” storyIdList=”8437058″ data=’ Η Google παρουσιάζει περιλήψεις που δημιουργούνται από AI στην κορυφή της μηχανής αναζήτησης ‘ }}

Σημασία έχουν τα δεδομένα

Ο Ouazan είπε ότι η ακρίβεια ενός chatbot εξαρτάται από την ποιότητα του συνόλου δεδομένων που τροφοδοτείται.

“Αν εσύ [data] Η πηγή δεν είναι 100 τοις εκατό… [the chatbot] μπορεί να πει κάτι που δεν είναι αλήθεια», είπε. «Αυτός είναι ο κύριος λόγος που έχουμε παραισθήσεις».

Ο Ouazan είπε ότι τα μοντέλα τεχνητής νοημοσύνης χρησιμοποιούν επί του παρόντος πολλά δεδομένα ιστού και ανοιχτού κώδικα για να εκπαιδεύσουν τα μοντέλα τους.

{{quotation_v2 align=”center” size=”fullwidth” ratio=”auto” quote=””Στο τέλος της ημέρας, είναι ένα ταξίδι. Ακόμη και οι εταιρείες δεν προσφέρουν καλή εξυπηρέτηση πελατών από την πρώτη μέρα.”” author=”Alexander Sukharevsky, Senior Partner στο QuantumBlack στο McKinsey” }}

Συγκεκριμένα, το OpenAI συνάπτει επίσης συμφωνίες με εταιρείες μέσων μαζικής ενημέρωσης όπως η Axel Springer και η News Corp, καθώς και εκδόσεις όπως η Le Monde, για να αδειοδοτήσουν το περιεχόμενό τους ώστε να μπορούν να εκπαιδεύουν τα μοντέλα τους με πιο αξιόπιστα δεδομένα.

Για τον Ouazan, δεν είναι ότι η τεχνητή νοημοσύνη χρειάζεται περισσότερα δεδομένα για να διατυπώσει ακριβείς απαντήσεις, αλλά ότι τα μοντέλα χρειάζονται δεδομένα πηγής υψηλής ποιότητας.

Ο Sukharevsky είπε ότι δεν εκπλήσσεται που τα chatbot AI κάνουν λάθη – αυτό είναι αναπόφευκτο, έτσι ώστε οι άνθρωποι που τα ελέγχουν να μπορούν να βελτιώσουν την τεχνολογία και τα σύνολα δεδομένων τους με την πάροδο του χρόνου.

«Νομίζω ότι στο τέλος της ημέρας είναι ένα ταξίδι», είπε ο Σουχάρεφσκι. «Οι εταιρείες επίσης δεν έχουν καλή εξυπηρέτηση πελατών από την πρώτη μέρα», είπε.

{{related align=”center” size=”fullwidth” ratio=”auto” storyIdList=”8433946″ data=’ Ο ανταγωνιστής OpenAI Anthropic λανσάρει το chatbot Claude στην Ευρώπη για να δώσει στους χρήστες περισσότερες επιλογές’ }}

Ένας εκπρόσωπος της Google είπε στο Euronews Next ότι οι συλλογές τεχνητής νοημοσύνης της εταιρείας είχαν λάβει πολλά «ασυνήθιστα ερωτήματα» που είτε χειραγωγήθηκαν είτε δεν μπορούσαν να αναπαραχθούν με ακρίβεια, με αποτέλεσμα ψευδείς ή παραισθήσεις.

Ισχυρίζονται ότι η εταιρεία διεξήγαγε «εκτεταμένες δοκιμές» πριν κυκλοφορήσει το AI Overviews και λαμβάνει «ταχεία δράση» για τη βελτίωση των συστημάτων της.

Πώς μπορούν οι εταιρείες τεχνητής νοημοσύνης να σταματήσουν τις παραισθήσεις;

Η Google συνιστά ορισμένες τεχνικές για τον μετριασμό αυτού του προβλήματος. Αυτό περιλαμβάνει, για παράδειγμα, τακτοποίηση, η οποία τιμωρεί το μοντέλο για ακραίες προβλέψεις.

Αυτό μπορεί να επιτευχθεί περιορίζοντας τον αριθμό των πιθανών αποτελεσμάτων που μπορεί να προβλέψει το μοντέλο AI, συνέχισε η Google. Οι εκπαιδευτές μπορούν επίσης να δώσουν σχόλια στο μοντέλο τους, λέγοντάς τους τι τους άρεσε και τι δεν τους άρεσε σχετικά με την απάντηση, έτσι ώστε το chatbot να μάθει τι αναζητούν οι χρήστες.

Η τεχνητή νοημοσύνη θα πρέπει επίσης να εκπαιδεύεται με πληροφορίες που είναι «σχετικές» για το μελλοντικό της έργο. Για παράδειγμα, μια τεχνητή νοημοσύνη που βοηθά στη διάγνωση ασθενών θα μπορούσε να χρησιμοποιήσει ένα σύνολο δεδομένων ιατρικών εικόνων.

Οι εταιρείες με μοντέλα γλώσσας τεχνητής νοημοσύνης θα μπορούσαν να καταγράψουν τα πιο συνηθισμένα ερωτήματα και στη συνέχεια να συγκεντρώσουν μια ομάδα ανθρώπων με διαφορετικές δεξιότητες για να καταλάβουν πώς να βελτιώσουν τις απαντήσεις, είπε ο Σουχάρεφσκι.

Για παράδειγμα, ο Sukharevsky είπε ότι οι ειδικοί της αγγλικής γλώσσας θα μπορούσαν να είναι κατάλληλοι για να τελειοποιήσουν την τεχνητή νοημοσύνη, ανάλογα με το ποιες ερωτήσεις γίνονται πιο συχνά.

{{quotation_v2 align=”center” size=”fullwidth” ratio=”auto” quote=””νομίζω ότι θα λυθεί γιατί αν δεν [AI chatbots] πιο αξιόπιστα, κανείς δεν θα τα χρησιμοποιήσει.”” author=”Igor Sevo, επικεφαλής του AI στο HTEC Group” }}

Σύμφωνα με τον Sevo, μεγάλες εταιρείες με τεράστια υπολογιστική ικανότητα θα μπορούσαν επίσης να χρησιμοποιήσουν την ευκαιρία να αναπτύξουν τους δικούς τους εξελικτικούς αλγόριθμους για να βελτιώσουν την αξιοπιστία των μοντέλων τους.

Αυτό περιλαμβάνει μοντέλα τεχνητής νοημοσύνης που έχουν παραισθήσεις ή εφευρίσκουν δεδομένα εκπαίδευσης για άλλα μοντέλα με αληθείς πληροφορίες που έχουν ήδη προσδιοριστεί μέσω μαθηματικών εξισώσεων, συνέχισε ο Sevo.

Όταν χιλιάδες μοντέλα ανταγωνίζονται μεταξύ τους για την αλήθεια, τα μοντέλα που δημιουργούνται είναι λιγότερο επιρρεπή σε παραισθήσεις, είπε.

«Νομίζω ότι θα λυθεί γιατί αν δεν το κάνεις [AI chatbots] πιο αξιόπιστα, κανείς δεν θα τα χρησιμοποιήσει», είπε ο Sevo.

«Είναι προς το συμφέρον όλων να χρησιμοποιηθούν αυτά τα πράγματα».

Οι μικρότερες εταιρείες μπορεί να προσπαθήσουν να βελτιστοποιήσουν με μη αυτόματο τρόπο τα δεδομένα που τα μοντέλα τους θεωρούν αξιόπιστα ή αληθινά με βάση τα δικά τους πρότυπα, λέει ο Sevo. Ωστόσο, αυτή η λύση είναι πιο εντατική και δαπανηρή.

Οι χρήστες θα πρέπει επίσης να γνωρίζουν ότι μπορεί να εμφανιστούν παραισθήσεις, λένε οι ειδικοί της τεχνητής νοημοσύνης.

«Θα μάθαινα τι [AI chatbots] είναι και δεν είναι, επομένως ως χρήστης έχω μια βασική κατανόηση των περιορισμών τους», είπε ο Σουχάρεφσκι.

“Αν δω ότι κάτι δεν λειτουργεί, θα αναπτύξω περαιτέρω το εργαλείο.”

Leave a Reply

Your email address will not be published. Required fields are marked *