ΤΑ ΑΝΑΛΕΚΤΑ ΤΟΥ ELON…

Στο βίντεο, κάτω, ένα απάνθισμα σοφίας του “πλουσιότερου ανθρώπου στον κόσμο”, από συνεντεύξεις – συζητήσεις του με [όχι ακριβώς] αξιοσημείωτους ανθρώπους. Για τον θεατή – αναγνώστη που υποθέτει ότι το συγκεκριμένο επίτευγμα [περιουσία 209.4 δισ USD] προϋποθέτει amount σοφίας που καθιστά άξιες προσοχής τις ρήσεις του EM, η απάντηση είναι ότι είναι όντως άξιες προσοχής, αλλά όχι ακριβώς για τη σοφία τους.
Θα προσπαθήσω να σχολιάσω εστιάζοντας σε συγκεκριμένες φράσεις – αφού επισημάνω κατ’ αρχήν ότι δεν μου φαίνεται ακριβώς καλαίσθητος ο τρόπος με τον οποίο
μουρμουράει περισσότερο παρά μιλάει.

“Τα κομπιούτερ είναι πιο έξυπνα από μας in most respects”.
Η συγκεκριμένη τοποθέτηση συγχέει σκόπιμα την υψηλή ευφυία με την ταχύτητα αντανακλαστικών / λήψης αποφάσεων
υπό συνθήκες πίεσης, κάτι σαν αυτά που “αξιολογεί” ένα IQ test [όχι τυχαία, η πρώτη χρήση των “IQ tests” αφορούσε σε διαδικασίες στρατολόγησης, με βασικά ζητούμενα αυτά ακριβώς].
Αυτό, τη στιγμή που οι πάντες γνωρίζουν ότι η υψηλή ευφυία είναι ένα “ευαίσθητο λουλούδι” που
δύσκολα ανθίζει υπό συνθήκες πίεσης. Αξίζει να σκεφτούμε πόσο απερίσπαστος / αποτελεσματικός θα ήταν ένας Άινσταϊν δουλεύοντας στην Ειδική Σχετικότητα ή ένας Μπαχ συνθέτοντας το Καλοσυγκερασμένο Κλειδοκύμβαλο, αν αίφνης ενημερώνονταν ότι η δραστηριότητά τους διεξάγεται σε πλαίσιο εργαστηριακού τεστ …αξιολογικού της ευφυίας τους.

“Όλοι μαζί προγραμματίζουμε την A.I.”
Αυτό αποτελεί απλώς κοτσάνα υψηλών προδιαγραφών, επίσης συνειδητά ειπωμένη. Δεν προγραμματίζουμε εμείς την A.I. αλλά οι cyber surveilants – καταγραφείς των στοιχεία μας, ερήμην μας.

“A genie that once it’s out of the bottle, you never getting it back in” – Joe Rogan
“That’s true” –
Elon Musk [για την έρευνα γύρω απ’ την Τεχνητή Νοημοσύνη]
Ο “υπεράνω υποψίας” κύριος Rogan δεν μπαίνει στον κόπο να ρωτήσει, για τα μάτια έστω :
γιατί άραγε δεν μπορεί να γίνει αυτό; γιατί δίπλα στο δέος που προκαλούν οι εφιαλτικοί κίνδυνοι της συγκεκριμένης τεχνολογίας, προωθείται η ιδέα του ποταμιού που δεν γυρίζει πίσω;
Ο EM τοποθετεί την A.I. στο ίδιο επίπεδο κινδύνου με τα
πυρηνικά και το climate change [χρεωμένο στην ανθρώπινη δραστηριότητα και άρα …δυνάμενο να αντιστραφεί μέσω αυτής]
Αλλά, ως προς τα πρώτα, οι προειδοποιήσεις συνοδεύονταν από ανθρωπιστικά κινήματα, διεθνείς διασκέψεις, προτροπές, εν τέλει και ενέργειες στην κατεύθυνση μιας
αποπυρηνικοποίησης. Ως προς το δεύτερο το ίδιο : συνήθειες γενεών ολόκληρων [σχετικές με τις μεταφορές, τη διατροφή, τη θέρμανση], ετοιμάζονται να ανατραπούν στο πλαίσιο ενός οικουμενικού κλιματικού consensus [ας μην μπούμε στα πώς και τα γιατί του]
Ως προς την A.I., εντούτοις, η “πρόοδος”, συνώνυμη εφιαλτικών κινδύνων θεωρείται
μη αντιστρέψιμη. Στο όνομα ίσως του “έρωτα” που έχει τη δυνατότητα να μας εμπνέει , σύμφωνα πάντα με τον EM [βλ. στο όνομα της μιντιακής υποβολής, συμπεριλαμβανομένου του βίντεο που παρακολουθούμε].
Μπορεί κάποιος να ισχυριστεί χωρίς καθόλου ρίσκο, ότι λατρεία της A.I. είναι η τυφλή λατρεία της “προόδου” οδηγημένη στην ακραία συνέπειά της –
αποανθρωποποποίηση.

“A.I. is not necessarily bad, it’s definitely going to be outside human control” – Musk
“Not necessarily bad, right?”
– Rogan [σε ρόλο …ακομπλεξάριστου λακέ του high tech guru].
Η φράση αποτελεί την υπερβατική βερσιόν του “trust the science”, ως τρικ μέσω του οποίου ο ασκών την εξουσία θέτει εαυτόν στο απυρόβλητο. Τι λέει ο σημερινός leader; “δεν αποφασίζω εγώ, αλλά οι οδηγίες των ειδικών”. Τι λέει ο μελλοντικός; “Δεν αποφασίζω εγώ, αλλά η A.I. [ = συνδυασμός ειδικοτήτων στο πλαίσιο μιας “Πανεπιστήμης”]. “Εγώ είμαι απλώς ο διάμεσος ανάμεσα σ’ εκείνην και σε σας. Εσείς …απλώς
εκτελείτε”.

“If it loves you in a way that you can’t tell if it’s real or not, it is real”.
Το
ποιός είναι αυτός που “δεν μπορεί να πει if it’s real or not” παρακάμπτεται εντέχνως [αδυνατώ να πιστέψω ότι αυτό γίνεται εξ ανοησίας]. Αλλά και στην περίπτωση που ουδείς μπορεί να διακρίνει κάποια διαφορά, η διαφορά δεν παύει να υπάρχει. Στο κάτω-κάτω …μ’ αυτή την παραδοχή ξεκινάει το νοητικό μας πείραμα!
Το ίδιο ισχύει και για τις απελοφιλοσοφικές χυδαιότητες που επακολουθούν περί του κόσμου ως προσομοίωσης.

Κατόπιν όλων αυτών, τα καταληκτικά σχόλια του EM περί ανάγκης ύπαρξης ενός οργανισμού ελέγχου της ασφάλειας των προϊόντων A.I., όπως οι επιβλέποντες άλλους τομείς που αφορούν στη δημόσια ασφάλεια [διατροφικός, φαρμακευτικός κοκ]., θα είχε νόημα …αν δεν διαθέταμε πικρή, συσσωρευμένη πείρα περί την καθαρότητα προθέσεων των ήδη υπαρχόντων.



4
(Visited 97 times, 1 visits today)

5 Comments

  1. stcigar October 22, 2022 at 3:31 pm

    Η νοημοσύνη από μόνη της δεν κάνει τίποτα. Για να γίνουν “επικίνδυνες” (προφανώς οι κατασκευαστές τους κρίνουν εξ ιδίων) per se οι μηχανές, δεν χρειάζονται τεχνητή νοημοσύνη, χρειάζονται τεχνητή βούληση.

    Reply
    1. stcigar October 22, 2022 at 8:59 pm

      Και μια τεχνητή βούληση – στο βαθμό που μπορεί να υπάρξει – δεν χρειάζεται να είναι απαραίτητα κακή. Ούτε στα λεφτά θέλουν από τη φύση τους τα καημένα τα μηχανήματα να κολυμπάνε ούτε για τη γυναίκα σου ενδιαφέρονται ούτε τους εξιτάρει να εξουσιάζουν ένα μάτσο μαλάκες. Εκτός κι αν κάποιος τα προγραμματίσει κατεικόνα και ομοίωση.. που με την υποτιθέμενη ανώτερη νοημοσύνη τους και πάλι θα τσινίσουν!

      Reply
      1. Oannes October 22, 2022 at 11:22 pm

        Άρτι αφιχθείς παρατηρώ μια σειρά σοβαρών points, τα οποία, όχι τυχαία, δεν τίθενται στον καθιερωμένο διάλογο. Ες αύριον τα “σπουδαία”.

        Reply
  2. stcigar October 22, 2022 at 6:00 pm

    Εντωμεταξύ τι απέγιναν εκείνα τα σχέδια για τον αποικισμό του Άρη που ήταν all the rage προ πενταετίας? Κάποιοι μάλιστα είχαν αγοράσει λένε και εισιτήρια..

    Reply
    1. Oannes October 23, 2022 at 9:42 am

      Mars can wait… Εδώ παίζονται παιχνίδια που διαμορφώνουν “το μέλλον μας” – τον υπόλοιπο αιώνα τουλάχιστον. Και κεντρική φυσιογνωμία σ’ αυτό δείχνει να είναι …ο EM – όντας βιτρίνα φυσικά, όπως [πίστευα πάντα ότι είναι ο ίδιος και] όλοι οι major “innovators – entrepreneurs” της Silicon Valley.
      Είπα να ασχοληθώ λίγο παραπάνω με τον κυρ – μαλάκα, θα ανεβάσω εντός ολίγου και άλλο stuff.

      Reply

Leave a Reply