«Αληθινά» μα «διαχειρίσιμα» είναι τα ρίσκα που συνεπάγεται η Τεχνητή Νοημοσύνη, γράφει σε άρθρο του ο δισεκατομμυριούχος, φιλάνθρωπος και συνιδρυτής της Microsoft, Μπιλ Γκέιτς.
«Τα ρίσκα που δημιουργούνται από την Τεχνητή Νοημοσύνη μπορεί να φαντάζουν δυσβάσταχτα. Τι θα συμβεί με αυτούς που θα χάσουν τις δουλειές τους από έξυπνες μηχανές; Θα μπορούσε η ΑΙ να επηρεάσει τα αποτελέσματα εκλογών; Τι θα γίνει αν μια μελλοντική ΑΙ αποφασίσει πως δεν χρειάζεται άλλο τους ανθρώπους και αποφασίσει να μας ξεφορτωθεί; Όλες αυτές είναι λογικές ερωτήσεις, και οι προβληματισμοί που εγείρουν πρέπει να ληφθούν υπόψιν σοβαρά. Μα υπάρχει ένας καλός λόγος για να πιστεύουμε ότι μπορούμε να τα βγάλουμε πέρα μαζί τους: Δεν είναι η πρώτη φορά που μια μεγάλη καινοτομία εμφανίζει νέες απειλές που πρέπει να ελεγχθούν. Το έχουμε κάνει και στο παρελθόν» γράφει σχετικά- αν και στο πρόσφατο παρελθόν ήταν ένας από αυτούς που είχαν υπογράψει κοινή δήλωση σχετικά με τον κίνδυνο αφανισμού λόγω ΑΙ, σε αυτό το άρθρο δεν φαίνεται καθόλου «τρομολαγνικός».
Ως παραδείγματα παρουσιάζει τα αυτοκίνητα, τους προσωπικούς υπολογιστές και το Ίντερνετ, τονίζοντας πως, παρά τις αναταραχές, στο τέλος βγήκαμε ωφελημένοι. «Λίγο αφού τα πρώτα αυτοκίνητα βρέθηκαν στους δρόμους, υπήρξε το πρώτο τροχαίο. Μα δεν απαγορεύσαμε τα αυτοκίνητα- υιοθετήσαμε όρια ταχύτητας, κανόνες ασφαλείας, προϋποθέσεις για άδειες, νόμους για την οδήγηση υπό την επήρεια αλκοόλ και άλλους κανόνες του δρόμου».
Αναφερόμενος στην περίπτωση της ΑΙ, αναγνωρίζει πως τα πράγματα εξελίσσονται τόσο γρήγορα που είναι δύσκολο να ξέρει κανείς τι θα έρθει μετά, και ότι υπάρχουν ερωτήματα στο πώς θα επηρεάσει την κοινωνία και το άτομο, «ωστόσο η ιστορία δείχνει πως είναι δυνατόν να επιλυθούν οι προκλήσεις που δημιουργούνται από νέες τεχνολογίες».
Όπως γράφει, πολλά από τα προβλήματα που προκαλούνται από την ΑΙ έχουν ιστορικό προηγούμενο- «για παράδειγμα θα έχει μεγάλες επιπτώσεις στην εκπαίδευση , μα το ίδιο και τα κομπιουτεράκια χειρός μερικές δεκαετίες πριν και, πιο πρόσφατα, η είσοδος υπολογιστών στην τάξη. Μπορούμε να μάθουμε από το τι δούλεψε στο παρελθόν. Πολλά από τα προβλήματα που προκαλούνται από την ΑΙ μπορούν επίσης να αντιμετωπιστούν με τη βοήθεια της ΑΙ. Θα χρειαστεί να προσαρμόσουμε παλιούς νόμους και να υιοθετήσουμε νέους- όπως νόμοι κατά της απάτης έπρεπε να προσαρμοστούν στον online κόσμο».
Στη συνέχεια αναφέρεται συγκεκριμένα σε μια σειρά από προβληματισμούς για την ΑΙ.
Τα deepfakes και η παραπληροφόρηση από ΑΙ θα μπορούσαν να υπονομεύσουν τις εκλογές και τη δημοκρατία
Όπως σημειώνει ο Μπιλ Γκέιτς, η χρήση τεχνολογίας για εξάπλωση ψεμάτων δεν είναι κάτι καινούριο- γινόταν και με βιβλία και φυλλάδια για αιώνες, και έγινε ευκολότερη με τους εκτυπωτές, τα email και τα κοινωνικά δίκτυα.
Η ΑΙ, γράφει, το πάει παραπέρα, επιτρέποντας στον καθένα να δημιουργεί ψευδή ηχητικά και βίντεο (deepfakes). Αυτό θα μπορούσε να χρησιμοποιηθεί και για επηρεασμό εκλογών, μέσω «φτιαχτών» βίντεο υποψηφίων κλπ.
«Δύο πράγματα με κάνουν συγκρατημένα αισιόδοξο. Ένα το ότι οι άνθρωποι είναι ικανοί να μάθουν πως όλα δεν είναι όπως φαίνονται. Για χρόνια χρήστες email έπεφταν θύματα σε απάτες όπου κάποιος που έκανε τον Νιγηριανό πρίγκιπα υποσχόταν μεγάλα ανταλλάγματα εάν μοιραζόσουν τον αριθμό της πιστωτικής σου κάρτας. Μα εν τέλει οι περισσότεροι έμαθαν να κοιτάνε αυτά τα email δύο φορές. Καθώς οι απάτες γίνονταν πιο εξελιγμένες, το ίδιο γινόταν και με πολλούς από τους στόχους τους. Θα χρειαστεί να γίνει το ίδιο με τα deepfakes. Το άλλο που με κάνει να ελπίζω είναι πως η ΑΙ μπορεί να βοηθήσει στον εντοπισμό deepfakes, πέρα από την δημιουργία τους».
Η ΑΙ κάνει πιο εύκολες τις επιθέσεις σε ανθρώπους και κυβερνήσεις
Ο Γκέιτς εδώ αναφέρεται στις κυβερνοεπιθέσεις, σημειώνοντας πως η ΑΙ μπορεί να χρησιμοποιηθεί τόσο για κακούς σκοπούς, από χάκερ, όσο και για καλούς, δηλαδή εργαλεία για τον εντοπισμό και τη διόρθωση προβλημάτων ασφαλείας πριν τα εκμεταλλευτούν εγκληματίες. «Για αυτό δεν θα έπρεπε να προσπαθήσουμε να εμποδίσουμε προσωρινά ανθρώπους να εφαρμόσουν νέες εξελίξεις στην ΑΙ, όπως έχουν προτείνει κάποιοι. Οι κυβερνοεγκληματίες δεν θα σταματήσουν να φτιάχνουν νέα εργαλεία. Ούτε οι άνθρωποι που θέλουν να χρησιμοποιήσουν ΑΙ για τον σχεδιασμό πυρηνικών όπλων και επιθέσεων βιοτρομοκρατίας. Η προσπάθεια να σταματηθούν πρέπει να συνεχιστεί με ίδιο ρυθμό». Ως προς τον κίνδυνο μιας κούρσας εξοπλισμών στην ΑΙ, σημειώνει πως είναι υπαρκτός, μα η ιστορία μας καθοδηγεί, μέσω του καθεστώτος μη εξάπλωσης των πυρηνικών όπλων. «Οι κυβερνήσεις θα έπρεπε να δημιουργήσουν έναν παγκόσμιο φορέα για την ΑΙ παρόμοιο με τη Διεθνή Υπηρεσία Ατομικής Ενέργειας».
Απώλεια θέσεων εργασίας
Ο Γκέιτς παραδέχεται πως θα υπάρξει αναταραχή, σημειώνοντας ωστόσο πως «είναι καλό για την κοινωνία όταν η παραγωγικότητα αυξάνεται. Δίνει στους ανθρώπους περισσότερο χρόνο να κάνουν άλλα πράγματα, στη δουλειά και στο σπίτι. Και η ζήτηση για ανθρώπους που βοηθούν άλλους δεν θα χαθεί ποτέ. Μα είναι αλήθεια πως κάποιοι εργαζόμενοι θα χρειαστούν υποστήριξη και επανεκπαίδευση καθώς κάνουμε τη μετάβαση σε έναν χώρο εργασίας με ΑΙ. Αυτός είναι ρόλος για τις κυβερνήσεις και τις επιχειρήσεις, και θα χρειαστεί να το διαχειριστούν καλά, ώστε να μη μείνουν πίσω εργαζόμενοι...να θυμόμαστε πως δεν είναι η πρώτη φορά που μια νέα τεχνολογία προκαλεί μεγάλη αλλαγή στην αγορά εργασίας...η αλλαγή που προκαλείται από την ΑΙ θα είναι μια ανώμαλη μετάβαση, μα υπάρχει κάθε λόγος να σκεφτόμαστε πως μπορούμε να μειώσουμε την αναταραχή στις ζωές των ανθρώπων».
Η ΑΙ κληρονομεί τις προκαταλήψεις μας
Όσον αφορά στον κίνδυνο η ΑΙ να συμμερίζεται ή και να επιδεινώνει προκαταλήψεις «σε βάρος συγκεκριμένων ταυτοτήτων φύλου, φυλών, εθνοτήτων κ.α.», υπογραμμίζει τον τρόπο που λειτουργούν τα πιο κοινά μοντέλα ΑΙ σήμερα: Εξετάζουν μεγάλους όγκους κειμένου και του αναλύουν για να βρουν μοτίβα στην ανθρώπινη γλώσσα.
«Όταν κάνετε μια ερώτηση σε μια ΑΙ, κοιτά τις λέξεις που χρησιμοποιήσατε και μετά ψάχνει κομμάτια κειμένου που συχνά συσχετίζονται με αυτές τις λέξεις...μετά, με βάση αυτά που ξέρει για τον τρόπο με τον οποίο εμφανίζονται συνήθως, παράγει μια απάντηση».
Αυτή η διαδικασία εξηγεί γιατί μια ΑΙ μπορεί να έχει ψευδαισθήσεις ή προκαταλήψεις: Βασίζεται σε κείμενα που σχετίζονται με τις εκάστοτε συνθήκες- τις απαντήσεις και τα σχόλια που γίνονται συχνά σε σχέση με μια ερώτηση. «Είμαι αισιόδοξος πως, στο πέρασμα του χρόνου, τα μοντέλα ΑΙ μπορούν να εκπαιδευτούν να ξεχωρίζουν τα γεγονότα από τη φαντασία...ο καθένας που χρησιμοποιεί ΑΙ πρέπει να είναι ενήμερος για το πρόβλημα της προκατάληψης και να καταστεί ενημερωμένος χρήστης. Το δοκίμιο που ζητάς από την ΑΙ να ετοιμάσει θα μπορούσε να είναι γεμάτο με προκαταλήψεις, καθώς και με λάθη. Θα πρέπει να ελέγχετε τις προκαταλήψεις της ΑΙ όπως και τις δικές σας».
Οι μαθητές/ φοιτητές δεν θα μαθαίνουν να γράφουν επειδή η ΑΙ θα τους κάνει τη δουλειά
Εδώ σημειώνει πως ήδη υπάρχουν εργαλεία ΑΙ που μπορούν να διαπιστώσουν εάν κάτι γράφτηκε από άνθρωπο ή υπολογιστή, ενώ προσθέτει πως κάποιοι εκπαιδευτικοί ενθαρρύνουν μάλιστα και τη χρήση ΑΙ από τους σπουδαστές τους. «Μου θυμίζει τότε που τα ηλεκτρονικά κομπιουτεράκια εξαπλώθηκαν, τις δεκαετίες του 1970 και του 1980. Κάποιοι καθηγητές μαθηματικών ανησυχούσαν πως οι μαθητές θα σταματούσαν να μαθαίνουν πώς να κάνουν βασική αριθμητική, μα άλλοι αγκάλιασαν τη νέα τεχνολογία και εστίασαν στις νοητικές δεξιότητες πίσω από την αριθμητική».
Παράλληλα, τονίζει, υπάρχει άλλος ένας τρόπος που η ΑΙ μπορεί να βοηθήσει στο γράψιμο και στην κριτική σκέψη: Οι εκπαιδευτικοί μπορούν να βάζουν την ΑΙ να παράγει κείμενα και μετά να δουλεύουν με τους μαθητές/ φοιτητές για να ελέγχουν αν ισχύουν αυτά που γράφουν...λίγες δεξιότητες είναι πιο σημαντικές από το να ξέρεις πώς να διακρίνεις το σωστό από το λάθος».
Κλείνοντας, εκφράζει την άποψη πως υπάρχουν περισσότεροι λόγοι να είναι κανείς αισιόδοξος ως προς τη διαχείριση των κινδύνων της ΑΙ από το αντίθετο, μεγιστοποιώντας παράλληλα τα οφέλη- μα «πρέπει να κινηθούμε γρήγορα. Οι κυβερνήσεις πρέπει να αποκτήσουν εξειδίκευση στην Τεχνητή Νοημοσύνη έτσι ώστε να μπορούν να φτιάχνουν καλά ενημερωμένους νόμους και κανονισμούς...οι πολιτικοί ηγέτες θα πρέπει να είναι εξοπλισμένοι/ καταρτισμένοι έτσι ώστε να έχουν καλά πληροφορημένο διάλογο με τους ψηφοφόρους. Θα πρέπει επίσης να αποφασίσουν πόσο να συνεργαστούν με άλλες χώρες σε αυτά τα θέματα...στον ιδιωτικό τομέα, οι εταιρείες ΑΙ πρέπει να εργάζονται με ασφάλεια και υπευθυνότητα. Αυτό περιλαμβάνει την προστασία της ιδιωτικότητας των ανθρώπων, τη διασφάλιση πως τα μοντέλα τεχνητής νοημοσύνης αντανακλούν βασικές ανθρώπινες αξίες, ελαχιστοποιούν τις προκαταλήψεις, εξαπλώνουν τα οφέλη σε όσο περισσότερους ανθρώπους γίνεται και αποτρέπουν τη χρήση τεχνολογίας από εγκληματίες ή τρομοκράτες. Εταιρίες σε πολλούς τομείς της οικονομίας θα πρέπει να να βοηθήσουν τους εργαζομένους τους να κάνουν τη μετάβαση σε έναν χώρο εργασίας με ΑΙ έτσι ώστε να μη μείνει κανείς πίσω. Και οι πελάτες θα πρέπει πάντα να γνωρίζουν πότε αλληλεπιδρούν με ΑΙ και όχι άνθρωπο. Και τέλος προτρέπω τους πάντες να ακολουθούν τις εξελίξεις στην ΑΙ όσο περισσότερο γίνεται».