Χάος στην OpenAI για την ασφάλεια στην ΑΙ- Αποχωρήσεις στελεχών, αιχμές προς τον CEO

Παράλληλα με τη σύγκρουση με τη διάσημη ηθοποιό Σκάρλετ Γιόχανσον.
Open Image Modal
via Associated Press

Σε αναβρασμό φαίνεται να βρίσκεται η OpenAI, δημιουργός του ChatGPT, καθώς, πέρα από την αντιπαράθεση που έχει προκύψει με τη διάσημη ηθοποιό Σκάρλετ Γιόχανσον, έχουν σημειωθεί παραιτήσεις σημαντικών στελεχών και έχουν υπάρξει αναφορές για αυστηρά NDA με σκοπό τη «φίμωση» πρώην εργαζομένων.

Την προηγούμενη εβδομάδα παραιτήθηκαν οι Γιαν Λάικε και Ίλια Σούτσκεβερ, που ηγούνταν της ομάδας η οποία ήταν επιφορτισμένη με την ασφάλεια στην ΑΙ. Ο Λάικε σε μακροσκελή ανάρτησή του κατηγόρησε τους πρώην εργοδότες του πως δίνουν προτεραιότητα σε «γυαλιστερά προϊόντα» σε βάρος της ασφάλειας, και ότι η ομάδα ασφαλείας αντιμετώπιζε όλο και μεγαλύτερες δυσκολίες στο να κάνει τη δουλειά της. Ο διευθύνων σύμβουλος, Σαμ Άλτμαν (ο οποίος φαίνεται να εξελίσσεται σε μια όλο και πιο αμφιλεγόμενη φιγούρα) έσπευσε να κάνει «διαχείριση κρίσης» κοινοποιώντας την ανάρτηση και ομολογώντας πως «έχει δίκιο, έχουμε πολλά ακόμα να κάνουμε, είμαστε αποφασισμένοι να τα κάνουμε».

 

 

Την παραίτησή της ανακοίνωσε και η Γκρέτσεν Κρούγκερ την Τετάρτη, λέγοντας πως την υπέβαλε στις 14 Μαΐου και ότι δεν ήταν εύκολη απόφαση. «Παραιτήθηκα λίγες ώρες πριν ακούσω τα νέα για τους @ilyasut και @janleike και πήρα την απόφασή μου ανεξάρτητα. Συμμερίζομαι τις ανησυχίες τους. Επίσης έχω επιπλέον και αλληλοεπικαλυπτόμενες ανησυχίες» έγραψε η πρώην ερευνήτρια σε θέματα πολιτικής, προσθέτοντας πως πολλά πρέπει να γίνουν για να βελτιωθούν διαδικασίες λήψης αποφάσεων, λογοδοσίας, διαφάνειας κ.α.

Σε δημοσίευμα του Vox γινόταν επίσης αναφορά σε αυστηρές συμφωνίες εμπιστευτικότητας, με τον Άλτμαν να λέει πως ήταν μια από τις «λίγες φορές» που βρισκόταν «πραγματικά σε αμηχανία», υποστηρίζοντας πως δεν γνώριζε ότι επιβάλλονται τόσο αυστηρές ρήτρες σε εργαζόμενους που αποχωρούν και ότι γίνονταν κινήσεις για να αλλάξει αυτό. Υπενθυμίζεται πως ο Άλτμαν προσπαθεί να καλλιεργήσει μια εικόνα «ηρεμίας», στον απόηχο της περσινής απόπειρας απομάκρυνσής του από την εταιρεία, την οποία ακολούθησε η επιστροφή του- ωστόσο φαίνεται πως οι «ρωγμές» εξακολουθούν να υφίστανται.

 

 

Σύμφωνα με το The Information, δύο ερευνητές ασφαλείας, οι Λέοπολντ Άσενμπρενερ και Πάβελ Ισμαήλοφ αποπέμφθηκαν πρόσφατα λόγω ισχυρισμών για διαρροές πληροφοριών. Οι ερευνητές Ντάνιελ Κοκοτάιλο και Γουΐλιαμ Σόντερες, πάλι του κλάδου της ασφαλείας, αποχώρησαν επίσης πρόσφατα από την εταιρεία, ενώ ο Κάλεν Ο′ Κιφ, που είχε να κάνει με θέματα πολιτικής, έφυγε τον Απρίλιο, σύμφωνα με το προφίλ του στο LinkedIn. Ο Κοκοτάιλο είπε στο Vox πως έχασε σταδιακά την εμπιστοσύνη του στην ηγεσία της OpenAI και την υπευθυνότητά της.

Όπως αναφέρεται σε σχετικό δημοσίευμα του Business Insider, η ομάδα Superalignment, της οποίας ηγούνταν οι Λάικε και Σούτσκεβερ, είχε περίπου 20 μέλη πέρυσι και τώρα έχει διαλυθεί. Εκπρόσωπος της OpenAI είπε στο The Information ότι η εταιρεία ενσωμάτωσε τα μέλη που είχαν μείνει στην ευρύτερη ερευνητική της ομάδα. Η εταιρεία έχει άλλη μια ομάδα που έχει να κάνει με την ασφάλεια, την Preparedness, μα οι αποχωρήσεις σίγουρα δεν βοηθούν την εικόνα της.

Όλα αυτά λαμβάνουν χώρα με φόντο την αντιπαράθεση για τη «φωνή» της νέας έκδοσης του ChatGPT: Όπως έγινε γνωστό, η φωνή «Sky» αποσύρεται, επειδή μοιάζει πολύ με της Σκάρλετ Γιόχανσον, η οποία είχε ενσαρκώσει τη φωνή μιας ΑΙ στην ταινία «Her». Η διάσημη ηθοποιός δήλωσε πως την είχαν προσεγγίσει για αυτόν τον σκοπό και αρνήθηκε, μα η εταιρεία προχώρησε βάζοντας μια πολύ παρόμοια φωνή όπως και να έχει. Αν και η εταιρεία υποστηρίζει πως η φωνή δεν είναι απομίμηση της Γιόχανσον, ο ίδιος ο Άλτμαν είχε κάνει ένα tweet κατά την παρουσίαση του GPT-4o με απευθείας αναφορά στο «Her».