Οι διακρίσεις είναι πιο σοβαρός λόγος προβληματισμού αυτή τη στιγμή όσον αφορά στην πρόοδο της Τεχνητής Νοημοσύνης από ό,τι το ενδεχόμενο αφανισμού της ανθρωπότητας, είπε στο BBC η Μαργκρέιτε Βέστειγιερ, εκτελεστική αντιπρόεδρος της Ευρωπαϊκής Επιτροπής και αρμόδια για θέματα ψηφιακής εποχής και ανταγωνισμού.
Όπως είπε, στο πλαίσιο συνέντευξής της στο BBC, χρειάζονται δικλείδες ασφαλείας για να αντισταθμιστούν οι μεγαλύτεροι κίνδυνοι της τεχνολογίας- προσθέτοντας πως αυτό είναι ιδιαίτερα σημαντικό σε περιπτώσεις όπου η ΑΙ χρησιμοποιείται για αποφάσεις που μπορούν να επηρεάσουν τον βίο κάποιου, όπως πχ το αν μπορεί να κάνει αίτηση για στεγαστικό δάνειο.
Το Ευρωκοινοβούλιο ψηφίζει την Τετάρτη πάνω στους προτεινόμενους κανόνες για την ΑΙ. Η αποκαλούμενη «AI Act» εξετάζεται εν μέσω προειδοποιήσεων ως προς την ανάπτυξη της τεχνολογίας με μεγάλη ταχύτητα. Κάποιοι ειδικοί έχουν προειδοποιήσει ότι η ΑΙ θα μπορούσε να οδηγήσει σε αφανισμό της ανθρωπότητας.
Μιλώντας στο BBC, η Βέστεϊγιερ είπε ότι η δυνατότητα της ΑΙ να ενισχύει τις προκαταλήψεις και τις διακρίσεις, που μπορεί να περιλαμβάνονται στους μεγάλους όγκους δεδομένων που «αλιεύονται» από το Ίντερνετ και χρησιμοποιούνται για την εκπαίδευση μοντέλων και εργαλείων, είναι πιο σοβαρός λόγος προβληματισμού. «Πιθανότατα (ο κίνδυνος αφανισμού) ίσως υπάρχει, μα νομίζω ότι η πιθανότητα είναι αρκετά μικρή. Νομίζω ότι οι κίνδυνοι της ΑΙ έχουν να κάνουν περισσότερο με το ότι οι άνθρωποι θα υφίστανται διακρίσεις, δεν θα εκλαμβάνονται ως αυτοί που είναι. Αν μια τράπεζα το χρησιμοποιεί για να αποφασίσει αν μπορώ να πάρω στεγαστικό δάνειο ή όχι, αν είναι κοινωνικές υπηρεσίες στον δήμο σου, τότε θες να διασφαλίσεις πως δεν υφίστασαι διακρίσεις λόγω του φύλου ή του χρώματός σου ή του ταχυδρομικού σου κώδικα» είπε.
Η Βέστεϊγιερ είπε ότι οι κανόνες στην ΑΙ πρέπει να αποτελέσουν «διεθνές ζήτημα» και επέμεινε πως η θα έπρεπε να δοθεί προτεραιότητα στην επίτευξη ομοφωνίας μεταξύ χωρών που έχουν παρόμοιες αντιλήψεις πριν υπάρξει επέκταση και αλλού, όπως η Κίνα. «Ας αρχίσουμε να δουλεύουμε πάνω σε μια προσέγγιση σε επίπεδο Ηνωμένων Εθνών. Μα δεν θα έπρεπε να “κρατήσουμε και την αναπνοή μας”...θα έπρεπε να κάνουμε ό,τι μπορούμε εδώ και τώρα».
Η ίδια ηγείται των προσπαθειών της ΕΕ για τη δημιουργία ενός εθελοντικού κώδικα συμπεριφοράς με την αμερικανική κυβέρνηση, στο πλαίσιο του οποίου εταιρείες που χρησιμοποιούν ή αναπτύσσουν ΑΙ εγγράφονται και τηρούν ένα σετ κανόνων που δεν είναι νομικά δεσμευτικοί.
Η Βέστεϊγιερ είπε πως υπάρχει ανάγκη για ρεαλισμό ως προς τους κανόνες γύρω από τη συγκεκριμένη τεχνολογία. «Είναι καλύτερο να έχουμε, ας πούμε, 80% τώρα από ό,τι 100% ποτέ, οπότε ας αρχίσουμε και μετά να επιστρέψουμε όταν μάθουμε και μετά να διορθώσουμε μαζί με άλλους».
Επίσης, σημείωσε πως υπάρχει «σίγουρα κίνδυνος» η ΑΙ να χρησιμοποιηθεί για να επηρεάσει τις επόμενες εκλογές, προσθέτοντας πως η πρόκληση για την αστυνομία και τις υπηρεσίες πληροφοριών θα ήταν να έχει πλήρη εικόνα για έναν τομέα εγκληματικής δραστηριότητας όπου υπάρχει κίνδυνος να βρεθεί μπροστά στην κούρσα για την αξιοποίηση της τεχνολογίας. «Αν το social feed σας μπορεί να σαρωθεί για να αποκτηθεί ένα λεπτομερές προφίλ σας, ο κίνδυνος χειραγώγησης είναι απλά τεράστιος...και αν καταλήξουμε σε μια κατάσταση όπου δεν πιστεύουμε τίποτα, τότε έχουμε υπονομεύσει πλήρως την κοινωνία μας».
Ως προς την επιστολή προσωπικοτήτων και ερευνητών του χώρου της τεχνολογίας τον Μάρτιο με την οποία ζητούσαν παύση στην ανάπτυξη συστημάτων ΑΙ ισχυρότερων από το GPT-4 της OpenAI, η ίδια είπε ότι δεν είναι ρεαλιστικό αυτό: «Ουδείς μπορεί να το επιβάλει. Ουδείς μπορεί να διασφαλίσει ότι όλοι θα είναι μέσα» σημείωσε, τονίζοντας πως μια παύση θα μπορούσε να χρησιμοποιηθεί από κάποιους ως ευκαιρία να βρεθούν μπροστά από τους ανταγωνιστές».
Οι προτάσεις του Ευρωκοινοβουλίου για την AI Act επιδιώκουν περιορισμό της χρήσης βιομετρικών συστημάτων ασφαλείας και αδιάκριτης συλλογής δεδομένων χρηστών από τα μέσα κοινωνικής δικτύωσης ή βίντεο CCTV για σκοπούς όπως τα συστήματα αναγνώρισης προσώπου. Ωστόσο η Βέστεϊγιερ είπε πως «θέλουμε να βάλουμε αυστηρές δικλείδες ασφαλείας έτσι ώστε να μη χρησιμοποιείται σε πραγματικό χρόνο, μα μόνο σε συγκεκριμένες συνθήκες, όπου αναζητείς ένα χαμένο παιδί ή ένας τρομοκράτης προσπαθεί να διαφύγει».