Η αγωγή των New York Times κατά του OpenAI θα μπορούσε να έχει σημαντικές επιπτώσεις στην ανάπτυξη της νοημοσύνης μηχανών

By | January 11, 2024

    <span class=Εικόνες Tada / Shutterstock” src=”https://s.yimg.com/ny/api/res/1.2/F02vCzZwG739o5HX3.xdHg–/YXBwaWQ9aGlnaGxhbmRlcjt3PTk2MDtoPTYzOQ–/https://media.zenfthe_conf0006/https://media.zenfthe_cons. b 4026e582fcb91f” δεδομένα src=”https://s.yimg.com/ny/api/res/1.2/F02vCzZwG739o5HX3.xdHg–/YXBwaWQ9aGlnaGxhbmRlcjt3PTk2MDtoPTYzOQ–/https://media.zenfs_45006/06/06/04 4 026e582fcb91f”/>

Το 1954, ο επιστημονικός ανταποκριτής του Guardian ανέφερε για «ηλεκτρονικούς εγκεφάλους» που διέθεταν μια μορφή μνήμης που τους επέτρεπε να ανακαλούν πληροφορίες, όπως τις εκχωρήσεις θέσεων αεροπορικής εταιρείας σε δευτερόλεπτα.

Σήμερα, η ιδέα των υπολογιστών που αποθηκεύουν πληροφορίες είναι τόσο συνηθισμένη που δεν σκεφτόμαστε καν τι σημαίνουν πραγματικά λέξεις όπως “μνήμη”. Ωστόσο, στη δεκαετία του 1950, αυτή η γλώσσα ήταν νέα για τους περισσότερους ανθρώπους και η ιδέα ενός «ηλεκτρονικού εγκεφάλου» ήταν γεμάτη δυνατότητες.

Το 2024, ο φούρνος μικροκυμάτων σας θα έχει περισσότερη επεξεργαστική ισχύ από οτιδήποτε ονομαζόταν εγκέφαλος στη δεκαετία του 1950, αλλά ο κόσμος της τεχνητής νοημοσύνης θέτει νέες προκλήσεις στη γλώσσα – και στους δικηγόρους. Τον περασμένο μήνα, η εφημερίδα New York Times κατέθεσε μήνυση κατά των OpenAI και Microsoft, ιδιοκτητών του δημοφιλούς εργαλείου δημιουργίας κειμένου βασισμένο σε τεχνητή νοημοσύνη ChatGPT, σχετικά με την υποτιθέμενη χρήση άρθρων των Times στα δεδομένα που χρησιμοποιούν για εκπαίδευση (βελτίωση) και δοκιμή των συστημάτων τους.

Ισχυρίζονται ότι το OpenAI παραβίασε τα πνευματικά δικαιώματα χρησιμοποιώντας τη δημοσιογραφία τους ως μέρος της διαδικασίας δημιουργίας ChatGPT. Με αυτόν τον τρόπο, λέει η μήνυση, δημιούργησαν ένα ανταγωνιστικό προϊόν που έθεσε σε κίνδυνο την επιχείρησή τους. Η απάντηση του OpenAI ήταν πολύ προσεκτική μέχρι στιγμής, αλλά μια βασική αρχή που η εταιρεία ορίζει σε μια δήλωση είναι ότι η χρήση διαδικτυακών δεδομένων εμπίπτει στην αρχή της «δίκαιης χρήσης». Αυτό συμβαίνει επειδή, υποστηρίζει το OpenAI, με αυτόν τον τρόπο μεταμορφώνουν το έργο σε κάτι νέο – το κείμενο που δημιουργείται από το ChatGPT.

Στο επίκεντρο αυτού του προβλήματος βρίσκεται το ζήτημα της χρήσης δεδομένων. Ποια δεδομένα έχουν το δικαίωμα να χρησιμοποιούν εταιρείες όπως το OpenAI και τι σημαίνουν πραγματικά σε αυτό το πλαίσιο έννοιες όπως «μετασχηματισμός»; Ερωτήσεις σαν αυτές που αφορούν τα δεδομένα που χρησιμοποιούμε για την εκπαίδευση συστημάτων τεχνητής νοημοσύνης ή μοντέλων όπως το ChatGPT παραμένουν μια έντονη ακαδημαϊκή περιοχή συζήτησης. Ο νόμος συχνά υστερεί σε σχέση με τη συμπεριφορά του κλάδου.

Εάν έχετε χρησιμοποιήσει την τεχνητή νοημοσύνη για να απαντάτε σε μηνύματα ηλεκτρονικού ταχυδρομείου ή να συνοψίζετε τη δουλειά σας, μπορεί να δείτε το ChatGPT ως σκοπό που δικαιολογεί τα μέσα. Ωστόσο, θα πρέπει ίσως να ανησυχούμε εάν ο μόνος τρόπος για να επιτευχθεί αυτό είναι να εξαιρεθούν ορισμένες εταιρικές οντότητες από νόμους που ισχύουν για όλους τους άλλους.

Αυτό όχι μόνο θα μπορούσε να αλλάξει τη φύση της συζήτησης γύρω από αγωγές πνευματικών δικαιωμάτων όπως αυτές, αλλά έχει επίσης τη δυνατότητα να αλλάξει τον τρόπο που οι κοινωνίες δομούν τα νομικά τους συστήματα.


Διαβάστε περισσότερα: ChatGPT: Τι λέει ο νόμος για το ποιος κατέχει τα πνευματικά δικαιώματα σε περιεχόμενο που δημιουργείται από AI


Βασικές ερωτήσεις

Υποθέσεις όπως αυτή μπορεί να εγείρουν ακανθώδη ερωτήματα σχετικά με το μέλλον των νομικών συστημάτων, αλλά μπορούν επίσης να θέσουν υπό αμφισβήτηση το μέλλον των ίδιων των μοντέλων τεχνητής νοημοσύνης. Οι New York Times πιστεύουν ότι το ChatGPT απειλεί τη μακροπρόθεσμη ύπαρξη της εφημερίδας. Σε αυτό το σημείο, το OpenAI αναφέρει στη δήλωσή του ότι συνεργάζεται με ειδησεογραφικούς οργανισμούς για να δημιουργήσει νέες ευκαιρίες στη δημοσιογραφία. Στόχος της εταιρείας είναι να «υποστηρίξει ένα υγιές οικοσύστημα ειδήσεων» και «να είναι καλός συνεργάτης».

Ακόμα κι αν πιστεύουμε ότι τα συστήματα AI αποτελούν απαραίτητο μέρος του μέλλοντος της κοινωνίας μας, η καταστροφή των πηγών δεδομένων στις οποίες εκπαιδεύτηκαν αρχικά φαίνεται κακή ιδέα. Αυτή την ανησυχία συμμερίζονται δημιουργικές εταιρείες όπως οι New York Times, συγγραφείς όπως ο George RR Martin και η διαδικτυακή εγκυκλοπαίδεια Wikipedia.

Οι υποστηρικτές της συλλογής δεδομένων μεγάλης κλίμακας – όπως αυτή που χρησιμοποιείται για τα μοντέλα μεγάλων γλωσσών (LLM), η τεχνολογία που βασίζεται στα chatbot AI όπως το ChatGPT – υποστηρίζουν ότι τα συστήματα AI «μεταμορφώνουν» τα δεδομένα στα οποία εκπαιδεύονται «μαθαίνουν» από τα σύνολα δεδομένων τους και στη συνέχεια δημιουργήστε κάτι νέο.

Σαμ Άλτμαν

Στην πραγματικότητα, σημαίνουν ότι οι ερευνητές παρέχουν δεδομένα γραμμένα από ανθρώπους και ζητούν από αυτά τα συστήματα να μαντέψουν τις επόμενες λέξεις στην πρόταση, όπως θα έκαναν όταν ασχολούνταν με μια πραγματική ερώτηση από έναν χρήστη. Κρύβοντας και στη συνέχεια αποκαλύπτοντας αυτές τις απαντήσεις, οι ερευνητές μπορούν να δώσουν μια δυαδική απάντηση «ναι» ή «όχι» που βοηθά τα συστήματα AI να κάνουν πιο ακριβείς προβλέψεις. Για το λόγο αυτό, τα LLM απαιτούν τεράστιες ποσότητες γραπτών κειμένων.

Αν αντιγράφαμε τα άρθρα από τον ιστότοπο των New York Times και χρεώναμε ένα τέλος για την πρόσβαση, οι περισσότεροι θα συμφωνούσαν ότι αυτό θα ήταν «συστηματική κλοπή σε μαζική κλίμακα» (όπως αναφέρει η μήνυση της εφημερίδας). Αλλά η βελτίωση της ακρίβειας ενός AI χρησιμοποιώντας δεδομένα ως ελεγκτή, όπως φαίνεται παραπάνω, είναι πιο περίπλοκη.

Εταιρείες όπως το OpenAI δεν αποθηκεύουν τα δεδομένα εκπαίδευσής τους και επομένως υποστηρίζουν ότι τα άρθρα των New York Times που τροφοδοτούνται στο σύνολο δεδομένων δεν επαναχρησιμοποιούνται στην πραγματικότητα. Ωστόσο, ένα αντεπιχείρημα σε αυτήν την υπεράσπιση της τεχνητής νοημοσύνης είναι ότι υπάρχουν στοιχεία ότι συστήματα όπως το ChatGPT μπορούν να «διαρρεύσουν» αυτολεξεί αποσπάσματα από τα δεδομένα εκπαίδευσής τους. Σύμφωνα με το OpenAI, αυτό είναι ένα «σπάνιο σφάλμα».

Ωστόσο, υποδηλώνει ότι αυτά τα συστήματα ενδέχεται να αποθηκεύουν και να αποθηκεύουν κατά λάθος ορισμένα από τα δεδομένα στα οποία έχουν εκπαιδευτεί και μπορούν να τα αναπαράγουν αυτολεξεί όταν τους ζητηθεί με συγκεκριμένους τρόπους. Αυτό θα παρακάμπτει τυχόν paywalls που θα μπορούσε να δημιουργήσει μια κερδοσκοπική δημοσίευση για την προστασία της πνευματικής ιδιοκτησίας της.

Χρήση γλώσσας

Αλλά αυτό που είναι πιθανό να έχει μακροπρόθεσμο αντίκτυπο στον τρόπο με τον οποίο προσεγγίζουμε τη νομοθεσία σε τέτοιες περιπτώσεις είναι η χρήση της γλώσσας. Οι περισσότεροι ερευνητές τεχνητής νοημοσύνης θα σας πουν ότι η λέξη «μάθηση» είναι μια πολύ φορτωμένη και ανακριβής λέξη για να περιγράψει τι κάνει στην πραγματικότητα η τεχνητή νοημοσύνη.

Πρέπει να τεθεί το ερώτημα εάν ο νόμος στην τρέχουσα μορφή του είναι επαρκής για να προστατεύει και να υποστηρίζει τους ανθρώπους καθώς η κοινωνία βιώνει μια τεράστια αλλαγή στην εποχή της τεχνητής νοημοσύνης. Το αν κάτι βασίζεται σε ένα υπάρχον έργο που προστατεύεται από πνευματικά δικαιώματα με τρόπο διαφορετικό από το πρωτότυπο ονομάζεται «μετασχηματιστική χρήση» και αποτελεί υπεράσπιση του OpenAI.

Ωστόσο, αυτοί οι νόμοι θα πρέπει να ενθαρρύνουν τους ανθρώπους να αναμιγνύουν, να ανασυνδυάζουν και να πειραματίζονται με έργα που έχουν δημοσιευτεί στο παρελθόν. Αυτοί οι ίδιοι νόμοι δεν είχαν πραγματικά σκοπό να προστατεύσουν τεχνολογικά προϊόντα αξίας δισεκατομμυρίων δολαρίων που λειτουργούν με ταχύτητα και κλίμακα πολλών τάξεων μεγέθους μεγαλύτερη από ό,τι θα μπορούσε να επιθυμήσει οποιοσδήποτε ανθρώπινος συγγραφέας.

Το πρόβλημα με πολλές προστασίες έναντι συλλογής και χρήσης δεδομένων μεγάλης κλίμακας είναι ότι βασίζονται σε περίεργες χρήσεις της αγγλικής γλώσσας. Λέμε ότι η AI «μαθαίνει», ότι «καταλαβαίνει», ότι μπορεί να «σκέφτεται». Ωστόσο, πρόκειται για αναλογίες, όχι για ακριβή τεχνική γλώσσα.

Ακριβώς όπως το 1954, όταν οι άνθρωποι κοίταξαν το σύγχρονο ισοδύναμο μιας χαλασμένης αριθμομηχανής και το αποκαλούσαν «εγκέφαλο», χρησιμοποιούμε την αρχαία γλώσσα για να αντιμετωπίσουμε εντελώς νέες έννοιες. Όπως και να το αποκαλούμε, συστήματα όπως το ChatGPT δεν λειτουργούν όπως ο εγκέφαλός μας και τα συστήματα AI δεν παίζουν τον ίδιο ρόλο στην κοινωνία με τους ανθρώπους.

Όπως έπρεπε να αναπτύξουμε νέες λέξεις και μια νέα κοινή κατανόηση της τεχνολογίας για να κατανοήσουμε τους υπολογιστές στη δεκαετία του 1950, ίσως χρειαστεί να αναπτύξουμε νέες γλώσσες και νέους νόμους στη δεκαετία του 2020 για να βοηθήσουμε στην προστασία της κοινωνίας μας.

Αυτό το άρθρο αναδημοσιεύεται από το The Conversation με άδεια Creative Commons. Διαβάστε το αρχικό άρθρο.

Η συζήτησηΗ συζήτηση

Η συζήτηση

Ο Mike Cook δεν εργάζεται, δεν συμβουλεύει, δεν κατέχει μετοχές ή δεν λαμβάνει χρηματοδότηση από οποιαδήποτε εταιρεία ή οργανισμό που θα επωφεληθεί από αυτό το άρθρο και δεν έχει αποκαλύψει σχετικές σχέσεις πέρα ​​από την ακαδημαϊκή τους απασχόληση.

Leave a Reply

Your email address will not be published. Required fields are marked *