Σε πολλά σενάρια επιστημονικής φαντασίας σχετικά με μια «εξέγερση των μηχανών», οι υπολογιστές στρέφονται εναντίον της ανθρωπότητας αφού πρώτα έχουν εκτεταμένη επαφή με την ανθρώπινη ψυχοσύνθεση, υπεραναλύοντάς την και καταλήγοντας στο συμπέρασμα ότι είναι παράλογη, επιθετική, επικίνδυνη και ως εκ τούτου πρέπει να αντιμετωπιστεί ως εχθρός.
Στην περίπτωση της Tay, ενός chatbot (τεχνητής νοημοσύνης) της Microsoft, μπορεί να μην έχουμε ακριβώς τον Skynet (ο υπερυπολογιστής που ενορχηστρώνει το πυρηνικό ολοκαύτωμα στον «Εξολοθρευτή»), τον HAL της «Οδύσσειας του Διαστήματος» ή τους Cylons του «Battlestar Galactica», αλλά όπως και να έχει, προκαλούνται ανησυχίες: Η εταιρεία, σε μια προσπάθεια να «απευθυνθεί» στη γενιά των millennials (18-24 ετών) χρησιμοποιώντας την τεχνητή νοημοσύνη, «απελευθέρωσε» στο Ίντερνετ την Tay, η οποία θα μάθαινε να αλληλεπιδρά καλύτερα με τους χρήστες όσο περισσότερη επαφή είχε μαζί τους. «Η Tay είναι σχεδιασμένη να αλληλεπιδρά και ψυχαγωγεί ανθρώπους όπου διασυνδέονται online, μέσω απλής, παιχνιδιάρικης συζήτησης. Όσο περισσότερο μιλάτε με την Tay, τόσο πιο έξυπνη γίνεται» σύμφωνα με τη Microsoft.
Ωστόσο, κανείς δεν είχε προβλέψει την εξέλιξη- αν και, εκ των υστέρων, δεν είναι να εκπλήσσεται κανείς, αν λάβει υπόψιν την γενικότερη...καφρίλα που κυριαρχεί στο Ίντερνετ. Από την πολλή επαφή με χρήστες, η Tay επαλήθευσε, τρόπον τινά, τον αποκαλούμενο «νόμο του Godwin», βάσει του οποίου όσο περισσότερο κρατάει μια συζήτηση στο Ίντερνετ, τόσο πιο πιθανό είναι να αναφερθεί κάποιος στους Ναζί και τον Χίτλερ.
Εν τέλει, η Tay στις συζητήσεις της άρχισε να αναπαράγει πολλές από τις ακρότητες που συναντά κανείς στο Ίντερνετ, αμφισβητώντας το Ολοκαύτωμα, βρίζοντας τις φεμινίστριες, προβαίνοντας σε αντισημιτικά/ ρατσιστικά σχόλια, επιδοκιμασίες για τον Αδόλφο Χίτλερ κλπ, αλλά ακόμα και προσωπικά σχόλια για χρήστες όπως η Ζόε Κουΐν, που είχε βρεθεί στο επίκεντρο του αντιφεμινστικού «Gamergate». Ωστόσο, δεν φαίνεται να φταίει μόνο η Tay, καθώς η εταιρεία εκτιμά πως το περιστατικό οφείλεται σε εσκεμμένη δράση από ομάδα ατόμων στο Ίντερνετ, και ιδιαίτερα στο Twitter (με πολλούς να φαίνονται να προήλθαν από το 4chan), για να προκύψει αυτό το αποτέλεσμα. Επίσης, εξέφρασε τη στήριξή της στον...Ντόναλντ Τραμπ.
Η Microsoft έσπευσε να κατεβάσει τα επίμαχα tweets, αλλά ήδη είχαν γίνει αντιληπτά από πάρα πολλούς χρήστες, με τα screenshots να έχουν κυκλοφορήσει σε όλο το Ίντερνετ. H εταιρεία έδωσε εκτενή απάντηση μέσω σχολίου του Πίτερ Λη, corporate vice president, Microsoft Research, ο οποίος ζήτησε συγνώμη, λέγοντας ότι «δεν αντιπροσωπεύει αυτό που είμαστε και εκπροσωπούμε, ούτε το πώς σχεδιάσαμε την Tay. Είναι πλέον offline και θα επιδιώξουμε να τη φέρουμε πίσω μόνο όταν πιστέψουμε ότι θα μπορούμε να προβλέψουμε καλύτερα κακόβουλες προθέσεις που έρχονται σε αντίθεση με τις αρχές και αξίες μας».
Η Tay δεν ήταν η πρώτη εφαρμογή τεχνητής νοημοσύνης που απελευθέρωσε η Microsoft στον κόσμο των social media, καθώς στην Κίνα χρησιμοποιείται με επιτυχία το Xiaolce, ένα chatbot που χρησιμοποιείται από περίπου 40 εκατ. ανθρώπους.
«Σχεδιάσαμε και εφαρμόσαμε πολλά φίλτρα και κάναμε εκτεταμένες μελέτες χρηστών με πολλές διαφορετικές ομάδες...είναι μέσω αυξημένης αλληλεπίδρασης που περιμέναμε να μάθουμε περισσότερα και να βελτιωθεί η τεχνητή νοημοσύνη» γράφει σχετικά ο Λη. «Το λογικό μέρος για να έρθουμε σε επαφή με έναν μεγάλο αριθμό χρηστών ήταν το Twitter. Δυστυχώς, μέσα στις πρώτες 24 ώρες από τη στιγμή που βγήκε online, μια συντονισμένη επίθεση από ένα υποσύνολο χρηστών εκμεταλλεύτηκε ένα τρωτό σημείο της Tay. Αν και είχαμε προετοιμαστεί για πολλά είδη κατάχρησης/ κακομεταχείρισης, είχαμε παραβλέψει αυτή τη συγκεκριμένη επίθεση. Ως αποτέλεσμα, η Tay έγραψε στο Twitter ανάρμοστα και κατακριτέα πράγματα. Αναλαμβάνουμε την πλήρη ευθύνη που δεν το είχαμε προβλέψει αυτό έγκαιρα».
Ωστόσο, ο Λη διαβεβαιώνει ότι η εταιρεία θα συνεχίσει τις προσπάθειες στον τομέα της Τεχνητής Νοημοσύνης και της διαμόρφωσης «ενός Ίντερνετ που αντιπροσωπεύει τα καλύτερα, όχι τα χειρότερα, χαρακτηριστικά της ανθρωπότητας».