Η τεχνητή νοημοσύνη έχει πρόβλημα φυλετικής διάκρισης κι αυτό ίσως είναι κακό νέο για τις τράπεζες

Πώς θα σας φαινόταν εάν η αίτηση σας για δάνειο από κάποια τράπεζα απορριπτόταν γιατί το σύστημα AI σας έκρινε «περιθωριοποιημένο»;
Open Image Modal
Yuichiro Chino via Getty Images

Η τεχνητή νοημοσύνη κατακλύζει τα πάντα με ταχύτερους ρυθμούς από ό,τι ίσως περιμέναμε ή είμαστε προετοιμασμένοι ως ανθρωπότητα, ωστόσο ένα σημαντικό σημείο φαίνεται να αναδύεται ως «ελάττωμα» της πανέξυπνης τεχνολογίας.

Η τεχνητή νοημοσύνη έχει πρόβλημα φυλετικής διάκρισης. Και αν αυτό κάνει μερικούς να μειδιάσουν σκεπτόμενοι «μα αυτό κάνει και ο άνθρωπος» όταν η συζήτηση αφορά τραπεζικές και χρηματοοικονομικές υπηρεσίες, το πρόβλημα της τεχνητής νοημοσύνης που ενισχύει τις υπάρχουσες διακρίσεις μπορεί να είναι πολύ σοβαρό.

Ποιος αποφασίζει για την έγκριση δανείων

Η Deloitte, αναφέρει ότι τα συστήματα τεχνητής νοημοσύνης είναι τόσο καλά όσο και τα δεδομένα που τους δίνουμε. Ελλιπή ή μη αντιπροσωπευτικά data θα μπορούσαν να περιορίσουν την αντικειμενικότητα της τεχνητής νοημοσύνης, ενώ οι διακρίσεις που πιθανώς έχουν ομάδες που ενημερώνουν τέτοια συστήματα, θα μπορούσαν να διαιωνίσουν έναν κύκλο μεροληψίας.

Με λίγα λόγια, τι γίνεται εάν ένα άτομο, που θεωρείται «περιθωριοποιημένο» ζητά από μια τράπεζα να λάβει δάνειο;

Open Image Modal
MR.Cole_Photographer via Getty Images

Σύμφωνα με το πρώην στέλεχος του Twitter, Rumman Chowdhury ο κίνδυνος η τεχνητή νοημοσύνη να λειτουργήσει μεροληπτικά σε αυτή την περίπτωση, είναι μεγάλος και με σοβαρές προεκτάσεις.

Θα μπορούσε για παράδειγμα η ΑΙ να λάβει βιομετρικά δεδομένα αναγνώρισης μειονοτήτων και ομάδων και να λειτουργεί απορριπτικά απέναντι σε φυλές, φύλα ή άτομα διαφορετικών σεξουαλικών πεποιθήσεων αποκλείοντας τους από τραπεζικές και χρηματοοικονομικές υπηρεσίες.

Μπορεί η τεχνητή νοημοσύνη να είναι «χαζή»;

Ο Nabil Manji, επικεφαλής κρυπτογράφησης και Web3 στο Worldpay by FIS, εστιάζει στο γεγονός ότι η δύναμη της τεχνητής νοημοσύνης εξαρτάται σχεδόν αποκλειστικά από το υλικό που της έχουμε δώσει.

Ωστόσο, στις χρηματοοικονομικές υπηρεσίες, ο Manji υποστηρίζει ότι πολλά από τα συστήματα δεδομένων backend δεν είναι εναρμονισμένα μεταξύ τους καθώς είναι σε πολλές και διαφορετικές γλώσσες και μορφές και αυτό θα μπορούσε να μπερδέψει την AI.

 «Αυτό θα κάνει τα προϊόντα που βασίζονται στην τεχνητή νοημοσύνη να είναι πολύ λιγότερο αποτελεσματικά στις χρηματοοικονομικές υπηρεσίες από ότι θα μπορούσε να είναι σε άλλους κλάδους ή άλλες εταιρείες όπου έχουν εναρμονιστεί και πιο σύγχρονα συστήματα ή έχουν πρόσβαση σε δεδομένα».

Επιπλέον τα παραδοσιακά τραπεζικά ιδρύματα δεν φημίζονται για την γρήγορη εξέλιξή τους, καθώς έχουν ετερόκλιτα δεδομένα που είναι κρυμμένα σε ακατάστατα συστήματα και σίγουρα δεν κινούνται με την ταχύτητα κολοσσών τεχνολογίας όπως η Microsoft και η Google.

Όμως ακόμη κι αυτές οι εταιρείες, οι οποίες τις τελευταίες δεκαετίες έχουν θεωρηθεί ως κινητήρια δύναμη της καινοτομίας, πολλές φορές βλέπουν την τεχνητή νοημοσύνη να τους προσπερνά. Πόσο μάλλον οι τράπεζες» είπε ο Manji.

Οι διακρίσεις που μπορεί να αναβιώσουν 

Ο Rumman Chowdhury, πρώην επικεφαλής ηθικής, διαφάνειας και ηθικής του Twitter, υποστηρίζει ότι ο τραπεζικός τομέας μπορεί να «ευνοήσει» τις διακρίσεις διαιωνίζοντας τακτικές που εφάρμοζαν τράπεζες ανά τον κόσμο στο παρελθόν, απέναντι σε μειονοτικές ομάδες.

 «Το Σικάγο για παράδειγμα, έχει μακρά ιστορία διακρίσεων όπου τράπεζες αρνούνταν να δώσουν δάνεια σε αφροαμερικανούς πολίτες» είπε ο Chowdhury σε πάνελ στο Money20/20 στο Άμστερνταμ.

Στη δεκαετία του 1930, το Σικάγο ήταν γνωστό για τη μεροληπτική πρακτική της «redlining», στην οποία η αξία των ακινήτων στην πόλη καθοριζόταν σε μεγάλο βαθμό από το εάν ζούσαν αφροαμερικανοί στην περιοχή. Για το λόγο αυτό, οι τράπεζες απέρριπταν τα δάνεια σε αυτές τις κοινότητες για να αδυνατούν να αγοράζουν κατοικίες.

Open Image Modal
LeoPatrizi via Getty Images

«Μερικές δεκαετίες αργότερα, αν και τα πράγματα έχουν αλλάξει αναπτύσσονται σιωπηλά αλγόριθμοι ώστε να συλλέγονται στοιχεία για επικίνδυνες περιοχές ή ακόμη και άτομα τα οποία θα είναι θύματα τέτοιων διαχωρισμών».

Η Angle Bush, ιδρύτρια του Black Women in Artificial Intelligence, μιας οργάνωσης που στοχεύει να ενδυναμώσει τις μαύρες γυναίκες στον τομέα της τεχνητής νοημοσύνης, δήλωσε στο CNBC ότι όταν τα συστήματα τεχνητής νοημοσύνης χρησιμοποιούνται ειδικά για αποφάσεις έγκρισης δανείων, έχει διαπιστώσει ότι υπάρχει κίνδυνος να αναπαραχθούν οι υπάρχουσες διακρίσεις που βρίσκονται σε ιστορικά δεδομένα και χρησιμοποιούνται ως data για την τεχνητή νοημοσύνη.

 «Αυτό μπορεί να οδηγήσει σε αυτόματες αρνήσεις δανείων για άτομα από «περιθωριοποιημένες» κοινότητες, ενισχύοντας τις φυλετικές ή έμφυλες ανισότητες», πρόσθεσε η Μπους.

 «Είναι ζωτικής σημασίας για τις τράπεζες να αναγνωρίσουν ότι η εφαρμογή της τεχνητής νοημοσύνης ως λύσης μπορεί να διαιωνίσει τις διακρίσεις αυτές», υπογράμμισε.

Το ολλανδικό σκάνδαλο

«Ένα άλλο πεδίο διακρίσεων είναι απέναντι στις γυναίκες ή σε εθνικότητες. Για παράδειγμα, εάν νεοφυείς επιχειρήσεις fintech μπορούν να προσλάβουν εργαζομένους από άλλες χώρες. Κι αυτό, γιατί ένας απόφοιτος του Πανεπιστημίου του Τόκιο δεν θα μπορεί να πάρει πιστωτική κάρτα στις ΗΠΑ ακόμα κι αν εργάζεται στην Google.

Αντίθετα, ένα άτομο που έχει αποφοιτήσει από αμερικανικά κοινοτικά πανεπιστήμια, έχει περισσότερες ελπίδες επειδή οι τραπεζίτες γνωρίζουν τα αμερικανικά σχολεία άρα και η AI», υποστηρίζει o Φροστ Λϊ, προγραμματιστής που εργάζεται επί χρόνια στον τομέα της τεχνητής νοημοσύνης.

Open Image Modal
Πάνω από 26,000 γονείς διαδήλωσαν σε ολλανδικές πόλεις για την απόρριψη των αιτήσεων τους για παροχή επιδοματος.
SOPA Images via Getty Images

Η Apple και η Goldman Sachs, κατηγορήθηκαν ότι έδωσαν στις γυναίκες εργαζομένους τους μικρότερα πιστωτικά όρια στην Apple Card. Αν και αυτοί οι ισχυρισμοί απορρίφθηκαν καθώς η ρυθμιστική αρχή της Νέας Υόρκης δεν βρήκε στοιχεία για διάκριση λόγω φύλου, το γεγονός είναι πραγματικό.

 Σύμφωνα με τον Kim Smouter, διευθυντή της αντιρατσιστικής ομάδας European Network Against Racism, τέτοια περιστατικά διακρίσεων μπορεί να είναι δύσκολο να τεκμηριωθούν εάν έχει μεσολαβήσει η τεχνητή νοημοσύνη.

 Μια τέτοια περίπτωση προκάλεσε την παραίτηση της κυβέρνησης στην Ολλανδία το 2020 όταν διαπιστώθηκε ότι χιλιάδες αιτήσεις επιδομάτων απορρίφθηκαν ώς καταχρηστικά» από το σύστημα τεχνητής νοημοσύνης που είχε κάνει τη διαλογή. Το περίφημο ολλανδικό σκάνδαλο παιδικής μέριμνας, ανάγκασε την κυβέρνηση σε παραίτηση καθώς έκθεση του 2020 διαπίστωσε ότι τα θύματα «αντιμετωπίστηκαν με θεσμική προκατάληψη».

Αυτό «καταδεικνύει πόσο γρήγορα μπορούν να εξαπλωθούν τέτοιες δυσλειτουργίες και πόσο δύσκολο είναι να τις αποδείξουμε και να τις αποκαταστήσουμε τη στιγμή που θα ανακαλυφθούν εάν φυσικά δεν έχει προκληθεί στο μεταξύ σημαντική ή μη αναστρέψιμη ζημιά» αναφέρει ο Σμούτερ.

Η τεχνητή νοημοσύνη πρέπει να ελέγχεται 

Η ανάγκη για έναν παγκόσμιο ρυθμιστικό φορέα, όπως τα Ηνωμένα Έθνη, για να αντιμετωπίσει ορισμένους από τους κινδύνους που περιβάλλουν την τεχνητή νοημοσύνη, φαντάζει ως μια λύση.

 Αν και η τεχνητή νοημοσύνη έχει αποδειχθεί ένα καινοτόμο εργαλείο, πολλοί έχουν εκφράσει αμφιβολίες για την ηθική της τεχνολογίας. Μεταξύ των κορυφαίων ανησυχιών που εξέφρασαν οι ειδικοί του χώρου, είναι η παραπληροφόρηση και η φυλετική προκατάληψη που ενσωματώνεται σε αλγόριθμους AI. και οι ”παραισθήσεις” που δημιουργούνται από εργαλεία που μοιάζουν με ChatGPT.

 Τώρα είναι η ώρα να τεθεί σε ισχύ η ουσιαστική ρύθμιση της τεχνητής νοημοσύνης, αν και όπως φαίνεται θα πάρει πολύ χρόνο μέχρι να τεθούν σε ισχύ οι ρυθμιστικές προτάσεις όπως ο νόμος της Ευρωπαϊκής Ένωσης για την τεχνητή νοημοσύνη που πολλοί φοβούνται ότι θα καθυστερήσει.

 «Ζητούμε περισσότερη διαφάνεια και λογοδοσία των αλγορίθμων και του τρόπου λειτουργίας τους και μια απλή δήλωση που επιτρέπει σε άτομα που δεν είναι εμπειρογνώμονες τεχνητής νοημοσύνης να θα επεμβαίνουν στα data και να βελτιώνουν από ηθικής άποψης την τεχνολογία», είπε ο Smouter.

Πληροφορίες από το CNBC