Η ΠΑΡΑΙΤΗΣΗ ΤΟΥ ΥΠΕΥΘΥΝΟΥ ΑΣΦΑΛΕΙΑΣ ΤΗΣ ANTHROPIC

Παρακάτω η δημοσιευμένη επιστολή με την οποία ο Mrinank Sharma, στέλεχος της εταιρίας Τεχνητής Νοημοσύνης Anthropic, * υπεύθυνος της ομάδας έρευνας για θέματα ασφαλείας, υπέβαλλε την παραίτηση του :

Αγαπητοί συνάδελφοι,
Έχω αποφασίσει να φύγω από την Anthropic. Η τελευταία μου μέρα θα είναι η 9η Φεβρουαρίου.
Σας ευχαριστώ.
Υπάρχουν τόσα πολλά εδώ που με εμπνέουν και με έχουν εμπνεύσει. Για να αναφέρω μερικά από αυτά: μια ειλικρινής επιθυμία και ορμή να είμαστε παρόντες σε μια τόσο δύσκολη κατάσταση και να φιλοδοξούμε να συνεισφέρουμε με τρόπο ουσιαστικό και υψηλής ακεραιότητας· η διάθεση να παίρνουμε δύσκολες αποφασίσεις και να υπερασπιζόμαστε το καλό· μια παράλογη ποσότητα διανοητικής λάμψης και αποφασιστικότητας· και, φυσικά, η καλοσύνη που διαπερνά την κουλτούρα της κοινότητάς μας.
Είμαι βαθιά ευγνώμων για όλα όσα έχω μάθει και για όλους εσάς που με βοήθησαν να γίνω καλύτερος άνθρωπος και ερευνητής.
Τα τελευταία δύο χρόνια συνεισέφερα (μαζί με υπέροχους συναδέλφους) σε διάφορα κομμάτια της έρευνας για ασφάλεια: από την καταπολέμηση της συκοφαντίας, μέχρι άμυνες κατά κινδύνων βιοτρομοκρατίας που υποβοηθούνται από AI, εσωτερικούς μηχανισμούς διαφάνειας και έρευνα για το πώς οι AI assistants μπορούν να διαστρεβλώνουν την ανθρωπιά μας.
Αλλά συνεχίζω να αναμετριέμαι με την κατάσταση. Ο κόσμος βρίσκεται σε κίνδυνο. Και όχι μόνο από την AI, αλλά από ολόκληρη σειρά αλληλένδετων κρίσεων. Φαίνεται ότι πλησιάζουμε ένα κατώφλι όπου η σοφία μας πρέπει να αυξηθεί σε ίσο βαθμό με την ικανότητά μας να επηρεάζουμε τον κόσμο, αλλιώς θα αντιμετωπίσουμε τις συνέπειες.
Νιώθω ότι υπάρχουν πιέσεις –και μέσα στην εταιρεία– να παραμερίζουμε τις αξίες μας προς χάριν πιο εμπορικών προϊόντων ή ταχύτερης προόδου. Αυτό έρχεται σε σύγκρουση με την ακεραιότητά μου.
Γι’ αυτό φεύγω.
Τώρα νιώθω ότι με καλούν ερωτήματα που αφορούν την ουσία: πώς να ζούμε σε αυτό το κατώφλι, πώς να αφήσουμε την αγάπη και την αλήθεια να καθοδηγούν τις πράξεις μας, πώς να τοποθετήσουμε την ποιητική αλήθεια δίπλα στην επιστημονική αλήθεια ως εξίσου έγκυρους τρόπους γνώσης.
Θα επιστρέψω στο Ηνωμένο Βασίλειο, θα αφήσω τον εαυτό μου να γίνει αόρατος για ένα διάστημα, θα ασχοληθώ με την ποίηση, θα διευκολύνω συζητήσεις και θαρραλέες διαλέξεις κατάσταση που βρισκόμαστε.
“Το να μην ξέρεις είναι το πιο οικείο” (από τη Zen παράδοση).

Δυο εβδομάδες πριν από την παραίτηση είχε προηγηθεί άρθρο του συνιδρυτή της Anthropic Dario Amodei. Σ’ αυτό (“The Adolescence of Technology: Confronting and Overcoming the Risks of Powerful AI” – βρίσκεται πανεύκολα στο διαδίκτυο) ο CEO της εταιρίας εμφανίζεται να ισορροπεί στο γνωστό δίπολο “κίνδυνοι και ευεργετήματα της AI”, περιλαμβάνοντας στους πρώτους τις δυνατότητες που η τεχνολογία παρέχει σε αυταρχικά καθεστώτα για προπαγάνδα, ψυχολογικό έλεγχο και καταστολή, τις δυνατότητες που παρέχει στη δημιουργία όπλων μαζικής καταστροφής και τέλος την τεράστια ανεργία που υπάρχει φόβος να πυροδοτήσει. Προτείνοντας κάποια μέτρα για την αντιμετώπιση των παραπάνω (ενίσχυση δημοκρατικών θεσμών, δίκαιες οικονομικές πολιτικές και, βέβαια …διατήρηση της πρωτοκαθεδρίας των ΗΠΑ στις περί την A.I. εξελίξεις), παρουσιάζεται εν τέλει (τι άλλο;) αισιόδοξος ότι η ανθρωπότητα θα περάσει αυτή την επικίνδυνη φάση περνώντας από την εφηβεία της AI στην ενηλικίωση.

Το ότι οι δυο κινήσεις (άρθρο του ενός, παραίτηση του άλλου) υπάγονται με σχέση
αιτίου και αιτιατού στο ίδιο κόνσεπτ, είναι νομίζω αυταπόδεικτο. Όπως και τι, πιθανά, σημαίνει αυτό.

*Η εταιρία προέκυψε μετά από αποχώρηση από την Open AI to 2021 των Dario (CEO της Anthropic) και Daniela Amodei (αδελφή του, πρόεδρός της) λόγω διαφωνιών για την κατεύθυνση του Sam Altman : οι ιδρυτές της Anthropic θεωρούν ότι απαιτείται μεγαλύτερη έμφαση σε ασφάλεια (AI safety), interpretability (κατανόηση πώς σκέφτονται τα μοντέλα), steerability (έλεγχος/καθοδήγηση) και υπευθυνότητα, αντί του φρενιτώδους scaling και της έμφασης σε εμπορικό potential / χρηματιστήριο.

(Visited 9 times, 9 visits today)

Discover more from OANNES

Subscribe to get the latest posts sent to your email.

Leave a Reply