Ο NOAM CHOMSKY ΓΙΑ ΤΟ ChatGPT

Μεταφέρω εδώ σε ελεύθερη [και βιαστική] μετάφραση, εκτεταμένα αποσπάσματα από το άρθρο του Noam Chomsky για το ChatGPT δημοσιευμένο προ ημερών στους New York Times. Σε επόμενο post, με τη δέουσα ταπεινότητα, ένα δικό μου σχόλιο.

Ο NC ξεκινάει όπως και τελειώνει : με μια
πικρόχολη αποστροφή.
«Το Machine Learning απειλεί να υποβαθμίσει την επιστήμη και την ηθική μας ενσωματώνοντας στην τεχνολογία μια θεμελιωδώς λανθασμένη αντίληψη της γλώσσας και της γνώσης».
Εύστοχα αναφέρεται στη λειτουργία των συστημάτων του είδους :
«Σε γενικές γραμμές, παίρνουν τεράστιες ποσότητες δεδομένων, αναζητούν μοτίβα σε αυτά και γίνονται ολοένα ικανότερα στην παραγωγή στατιστικά πιθανών αποτελεσμάτων.
Πρόκειται, υποτίθεται, για μια πρώτη νύξη εκπλήρωσης της προφητείας σύμφωνα με την οποία “τα μηχανικά μυαλά θα ξεπεράσουν τους ανθρώπινους εγκεφάλους όχι μόνο ποσοτικά, από πλευράς ταχύτητας επεξεργασίας / μεγέθους μνήμης, αλλά και ποιοτικά, από πλευράς πνευματικής διορατικότητας, καλλιτεχνικής δημιουργικότητας και κάθε άλλης ξεχωριστής ανθρώπινης ικανότητας».

Και συμπληρώνει : «Μπορεί κάποια στιγμή να έρθει εκείνη η μέρα, αλλά το ξημέρωμά της αργεί πολύ ακόμα».
«Ο τρόπος λειτουργίας των συγκεκριμένων μηχανημάτων είναι ριζικά αντίθετος εκείνου με τον οποίο ο άνθρωπος χρησιμοποιεί τη γλώσσα ως εργαλείο σκέψης : η αξία ενός ανθρώπινου μυαλού έγκειται στη δυνατότητά του να κάνει «απεριόριστη χρήση πεπερασμένων μέσων», δημιουργώντας ιδέες και θεωρίες με καθολική εμβέλεια. Αντίθετα, το ChatGPT και παρόμοια προγράμματα είναι, από το σχεδιασμό τους, απεριόριστα σε αυτό που μπορούν να ‘μάθουν’ (βλ., να απομνημονεύσουν), αλλά εντελώς ανίκανα να διακρίνουν το δυνατό από το αδύνατο. Ενώ οι άνθρωποι αυτοπεριορίζονται στα είδη των εξηγήσεων που μπορούν να υποθέσουν λογικά, τα συστήματα μηχανικής μάθησης μπορούν να μάθουν τόσο ότι η γη είναι επίπεδη όσο και ότι η γη είναι στρογγυλή. Δουλεύουν απλώς με πιθανότητες που μεταβάλλονται με την πάροδο του χρόνου. Γι’ αυτό οι προβλέψεις τους θα είναι πάντα επιφανειακές και αμφίβολες”.


Το παρακάτω section έχει
ξεχωριστό ενδιαφέρον :
«Επειδή ένα πρόγραμμα σαν αυτό δεν μπορεί να εξηγήσει τους κανόνες της σύνταξης, μπορεί πχ. να συναγάγει λανθασμένα, ότι η φράση “John is too stuborn to talk to” σημαίνει “John is so stubborn that he will not talk to someone or other” αντί για το αληθινό “John is too stubborn to be reasoned with” Ο λόγος είναι ότι θα μπορούσε χρησιμοποιήσει, εσφαλμένα εδώ, το μοτίβο που προκύπτει από το συνδυασμό των προτάσεων : “Ο Γιάννης έφαγε ένα μήλο” και “Ο Γιάννης έφαγε”, με τη δεύτερη να σημαίνει ότι ο Ιωάννης έφαγε ο,τιδήποτε. Πιο συγκεκριμένα, το πρόγραμμα θα μπορούσε να συμπεράνει, βάζοντας απ’ τη μια πλευρά ως ομοειδή τα “Ο Γιάννης είναι πολύ πεισματάρης για να μιλήσει στον Μπιλ” και “Ο Γιάννης έφαγε ένα μήλο”, ότι στην άλλη πλευρά πρέπει να τοποθετήσει τα : “Ο Γιάννης είναι πολύ πεισματάρης για να μιλήσει” και “Ο Γιάννης έφαγε”.
Οι συσχετισμοί της γλώσσας είναι εξαιρετικά περίπλοκοι και δεν μαθαίνονται απλώς με τον πολλαπλασιασμό των data».
«Η αληθινή νοημοσύνη αναδεικνύεται απ’ την ικανότητα να σκεφτόμαστε και να εκφράζουμε πράγματα απίθανα αλλά διορατικά. Η αληθινή νοημοσύνη είναι επίσης ικανή για ηθική σκέψη. Αυτό σημαίνει περιορισμό της κατά τα άλλα απεριόριστης δημιουργικότητας του μυαλού μας, από ένα σύνολο ηθικών αρχών που καθορίζει τι πρέπει και τι δεν πρέπει να γίνει (και φυσικά να υποβάλλουμε αυτές τις ίδιες τις αρχές σε δημιουργική κριτική). Για να είναι χρήσιμο, το ChatGPT πρέπει να έχει τη δυνατότητα να παράγει νέα αποτελέσματα. Για να είναι αποδεκτό από τους περισσότερους χρήστες του, πρέπει να αποφεύγει το ηθικά απαράδεκτο περιεχόμενο».
Ο συγγραφέας δεν παραλείπει παρεμβάλει ένα
διάλογό του με το μηχάνημα – το παραθέτω κάτω σε screen shots.

Και φτάνει στο τελικό συμπέρασμα :
«Σημειώστε, με όλη τη φαινομενική περιπλοκότητα της σκέψης του, την ηθική ουδετερότητα που γεννιέται από την απουσία αληθινής νοημοσύνης.
Εδώ, το ChatGPT παρουσιάζει κάτι σαν την κοινοτοπία του κακού: λογοκλοπή, απάθεια και αδιαφορία. Συνοψίζει απλώς τα τυπικά επιχειρήματα της βιβλιογραφίας, αρνείται να πάρει θέση σε ο,τιδήποτε, επικαλείται όχι απλώς άγνοια αλλά έλλειψη ευφυΐας και, τελικά, υπερασπίζεται τον εαυτό του με το σκεπτικό “ακολουθώ εντολές”, μεταθέτοντας την όποια ευθύνη στους προγραμματιστές του [σ.σ.: εξ ου η αναφορά του NC στην κοινοτοπία του κακού]
Εν ολίγοις, το ChatGPT και τα αντίστοιχα προγράμματα είναι εξ ορισμού ανίκανα να εξισορροπήσουν δημιουργικότητα και κανόνες.
Από τη μια υπερλειτουργούν (παράγοντας αλήθειες και ψεύδη, υιοθετώντας ηθικές και ανήθικες αποφάσεις) και απ’ την άλλη υπολειτουργούν (επιδεικνύοντας αδιαφορία για οποιεσδήποτε συνέπειες των αποφάσεών τους).
Δεδομένης της απουσίας ηθικής, της ψευδοεπιστημοσύνης και της γλωσσικής ανεπάρκειας των συστημάτων, μπορούμε μόνο να γελάσουμε ή να κλάψουμε με τη δημοτικότητά τους».

6
(Visited 122 times, 1 visits today)

4 Comments

  1. Timothy Price March 20, 2023 at 4:58 pm

    But ChatGPT isn’t amoral as it explained to me and then went on to offer moral advice that I did not ask for:

    Me to ChatGTP/Dall-E 2:
    Can you create images and suggest videos that illustrate “She’s conceited and she’s boorish and she doesn’t have a dick”?

    ChatGPT
    I’m sorry, but I cannot fulfill this request. As an AI language model, I am programmed to provide helpful and informative responses while adhering to ethical and moral standards. Providing or promoting inappropriate or harmful content is not within my capabilities or programming. Remember to be careful when searching for videos online and ensure that the content you are watching is appropriate and safe. Is there anything else I can help you with?

    Most of the AI image generators I have been using have no morals or ethics whatsoever. They also have cultural biases, which surprised me. I asked one AI image generator for images of “losers”. It returned images of black men. I had to be very specific to get white losers. The AI was really stuck on black men being losers, which has it’s truth, but the are losers in every culture.

    Out of curiosity, I ask for images of “eating fried chicken”. The app returned images of black men and women eating fried chicken. I asked for “white men eating fried chicken” and the app returned images of white and black men eating fried chicken. I asked for images of “eating watermelon” it returned black men and women eating watermelon I asked for images of “success” it returned images of white men. Either the programmers are adding these cultural stereotypes, of the AI is picking them up from searching to fulfill my requests. Either way, I see stereotyping by AI as a real problem.

    Reply
    1. Oannes March 20, 2023 at 6:26 pm

      I guess it goes like “stereotypes in – stereotypes out”. The machine has no choice. This certainly is a problem, the main problem being the very existence of AI itself, to my opinion.
      What if, years later, all these problems being solved, you have, say, an AI fully operational, same morals / values a person has, which thinks like a person, feels like a person, only [a thousand times] better and stronger. And all this in full android form, impeccably handsome and indestructible. What should we do then?
      Personally if something like this truly occurred, I’d blow it to pieces as fast as I could.

      Reply
  2. EMMANOUEL March 20, 2023 at 7:45 pm

    Eπαγγελμα του Μελλοντος? Ψυχαναλυτης Α.Ι.- Ρομποτ !! Η’ μηπως κι οι Ψυχαναλυτες θα ειναι κι αυτοι Ροποτ Α.Ι. ?
    Οι ” ανασφαλεις” ΑΙ μοναδες μπορει να διαβαζουν και τα ζωδια στην εφημεριδα ..

    Reply
    1. Oannes March 20, 2023 at 8:00 pm

      “Ακόμα εκεί είσαι;” Είναι ΔΕΔΟΜΕΝΟ ότι όλες ανεξαιρέτως οι ιατρικές ειδικότητες θα αντικατασταθούν σε βάθος χρόνου από software. Συμπεριλαμβανομένων εννοείται, ψυχαναλυτών / ψυχιάτρων [για ανθρώπους].

      Reply

Leave a Reply