H πληροφοριοδότης (whistleblower) του Facebook, Φράνσις Χάουγκεν κατέθεσε ενώπιον του Κογκρέσου την Τρίτη, λέγοντας σε μια υποεπιτροπή της Γερουσίας ότι ο κολοσσός των κοινωνικών μέσων μαζικής ενημέρωσης βάζει «τα κέρδη μπροστά από τους ανθρώπους».
Οι ισχυρισμοί της Χάουγκεν υποστηρίζονται από δεκάδες χιλιάδες σελίδες εσωτερικής έρευνας στο Facebook, τις οποίες παλαιότερα είχε παραχωρήσει στη The Wall Street Journal.
Η εφημερίδα χρησιμοποίησε τα έγγραφα για τη δημοσίευση μιας σειράς άκρως επιζήμιων άρθρων για το Facebook, υποστηρίζοντας ότι, μεταξύ άλλων, η εταιρεία γνώριζε ότι το Instagram ήταν «τοξικό» για εφήβους, μολονότι εξακολουθούσε να προωθεί στρατηγικές για την εγγραφή όλο και μικρότερων σε ηλικία παιδιών.
Στην εναρκτήρια κατάθεση της, η Χάουγκεν προέτρεψε το Κογκρέσο να επιβάλει ελέγχους στο Facebook. Συνέκρινε την εταιρεία με την Big Tobacco, η οποία επί δεκαετίες απέκρυβε στοιχεία για το πόσο βλαβερά είναι τα προϊόντα της.
«Τα έγγραφα που παρείχα στο Κογκρέσο αποδεικνύουν ότι το Facebook έχει παραπλανήσει επανειλημμένα το κοινό σχετικά με όσα αποκαλύπτει η δική του έρευνα σχετικά με την ασφάλεια των παιδιών, την αποτελεσματικότητα των συστημάτων τεχνητής νοημοσύνης και τον ρόλο του στη διάδοση διχαστικών και ακραίων μηνυμάτων», δήλωσε η Χάουγκεν. «Βγήκα μπροστά γιατί πιστεύω ότι κάθε άνθρωπος αξίζει την αξιοπρέπεια της αλήθειας».
Μιλώντας με ήρεμο τόνο στη φωνή της, η Χάουγκεν απάντησε στις ερωτήσεις των γερουσιαστών και ανέπτυξε εύρωστα τα επιχειρήματά της για τους ομοσπονδιακούς νόμους περί απορρήτου δεδομένων.
Συγκεκριμένα, στάθηκε στα συστήματα κατάταξης που βασίζονται στη συμμετοχή του Facebook, τα οποία καθορίζουν ποιος βλέπει τι στην πλατφόρμα. Οι αλγόριθμοι δίνουν μεγαλύτερο βάρος σε περιεχόμενο που προκαλεί τις πιο έντονες αντιδράσεις, ενισχύοντας έτσι όλο και πιο ακραίες αναρτήσεις.
Η Χάουγκεν προειδοποίησε επίσης ότι το Facebook βασίζεται πάρα πολύ στην τεχνητή νοημοσύνη για τον έλεγχο επικίνδυνου περιεχομένου, η συντριπτική πλειοψηφία του οποίου διαφεύγει τον εντοπισμό.
Το Facebook χάνει το 93% έως 95% της ρητορικής μίσους στην πλατφόρμα, είπε η Χάουγκεν. Πρόσθεσε στην συνέχεια ότι οι μηχανισμοί ελέγχου της εταιρείας κατά των αντι-εμβολιαστών, οι οποίοι βασίζονται επίσης σε μεγάλο βαθμό σε συστήματα τεχνητής νοημοσύνης, δεν θα εντοπίσουν ποτέ περισσότερο από 10% έως 20% του προσβλητικού περιεχομένου.
«Έχω περάσει το μεγαλύτερο μέρος της καριέρας μου δουλεύοντας σε συστήματα όπως η κατάταξη βάσει εμπλοκής», δήλωσε η Χάουγκεν στην υποεπιτροπή για την προστασία των καταναλωτών, την ασφάλεια των προϊόντων και την ασφάλεια των δεδομένων. «Όταν σας σας λέω αυτά τα πράγματα, βασικά καταριέμαι 10 χρόνια από τη δουλειά μου».
Σε μια σαφή προσπάθεια να απαξιωθεί τη μαρτυρία της Χάουγκεν, ο εκπρόσωπος του Facebook Άντι Στόουν ανέβασε μήνυμά του στο Twitter λίγο μετά την έναρξη της ακρόασης. Το επιχείρημα του: Επειδή η Haugen δεν είχε εργαστεί απευθείας σε ορισμένα από τα θέματα στα οποία αναφερόταν, δεν ήταν ικανή να σχολιάσει.
Μάλιστα, η γερουσιαστής Marsha Blackburn, διάβασε το tweet δυνατά κατά τη διάρκεια της ακρόασης, προκαλώντας πνιγμένο γέλιο στην αίθουσα.
Το Fight for the Future, μια μη κερδοσκοπική ομάδα ψηφιακής προστασίας που παρακολουθεί το Facebook, δήλωσε στη HuffPost ότι η κατάταξη βάσει συμμετοχής είναι επιβλαβής επειδή ενισχύει την παραπληροφόρηση και προκαλεί κοινωνικό διχασμό-αλλά και επειδή καταστέλλει άλλο σημαντικό περιεχόμενο, όπως δημοσιεύσεις για την κλιματική αλλαγή.
«Το πρόβλημα με τα προϊόντα του Facebook δεν είναι ότι φιλοξενούν περιεχόμενο που δημιουργείται από χρήστες. Είναι ότι χρησιμοποιούν μηχανική εκμάθηση για να μας δείξουν το περιεχόμενο που πιστεύει το Facebook ότι θέλουμε εμείς να δούμε ώστε να μας κρατήσουν στην πλατφόρμα περισσότερη ώρα και να πουλήσουν περισσότερες διαφημίσεις », δήλωσε ο Evan Greer, διευθυντής του FFTF, στη HuffPost.