Παιδόφιλοι χρησιμοποιούν τεχνολογία Τεχνητής Νοημοσύνης (ΑΙ) για να δημιουργούν και πωλούν ρεαλιστικό υλικό σεξουαλικής κακοποίησης παιδιών, σύμφωνα με το BBC.
Κάποιοι αποκτούν πρόσβαση πληρώνοντας συνδρομές σε λογαριασμούς σε mainstream ιστοσελίδες διαμοιρασμού περιεχομένου, όπως το Patreon- το οποίο είπε ότι έχει πολιτική «μηδενικής ανοχής» για τέτοιου είδους εικόνες στην ιστοσελίδα του.
Οι δημιουργοί των εικόνων αυτών χρησιμοποιούν ένα λογισμικό ΑΙ ονόματι Stable Diffusion, αντικείμενο του οποίου είναι κανονικά η παραγωγή εικόνων για χρήση στην τέχνη ή στο graphic design. Αυτό που κάνει το Stable Diffusion είναι να δέχεται οδηγίες/περιγραφές από τους χρήστες και να παράγει τις εικόνες που του ζητούν- και, σύμφωνα με το BBC, χρησιμοποιείται και για τη δημιουργία αληθοφανών εικόνων σεξουαλικής κακοποίησης παιδιών, μεταξύ των οποίων και βιασμών μωρών.
Η βρετανική αστυνομία λέει ότι έχει ήδη αρχίσει να εντοπίζει τέτοιου είδους περιεχόμενο. Η δημοσιογράφος Οκτάβια Σίπσανκς διερευνά το θέμα εδώ και μήνες και ήρθε σε επαφή με το BBC μέσω της NSPCC για να ενημερώσει σχετικά.
«Από τότε που κατέστησαν δυνατές οι παραγόμενες από ΑΙ εικόνες, έχει υπάρξει αυτή η τεράστια πλημμύρα...δεν είναι μόνο πολύ νεαρά κορίτσια, είναι (παιδόφιλοι) που μιλούν για μωρά» είπε σχετικά.
Μία ψεύτικη εικόνα (pseudo image) που έχει παραχθεί από υπολογιστή και απεικονίζει σεξουαλική κακοποίηση παιδιών αντιμετωπίζεται με τον ίδιο τρόπο που αντιμετωπίζεται μια πραγματική και είναι παράνομη η κατοχή, δημοσιοποίηση ή μεταβίβασή της στο Ηνωμένο Βασίλειο.
Ο Ίαν Κρίτσλεϊ της NPCC (National Police Chiefs’ Council) είπε ότι θα ήταν λάθος να πει κανείς πως, εφόσον δεν απεικονίζονται πραγματικά παιδιά σε τέτοιου είδους «συνθετικές» εικόνες, δεν παθαίνει κανείς τίποτα. Ο ίδιος προειδοποίησε πως ένας παιδόφιλος θα μπορούσε να κινηθεί σε αυτή την κλίμακα από τη σκέψη στις συνθετικές εικόνες και μετά στην κακοποίηση ενός αληθινού παιδιού.
Κάποιοι από τους δημιουργούς εικόνων κάνουν δημοσιεύσεις σε μια δημοφιλή ιαπωνική πλατφόρμα κοινωνικής δικτύωσης ονόματι Pixiv, που χρησιμοποιείται κυρίως από καλλιτέχνες που μοιράζονται manga και anime (ιαπωνικά κόμικ και κινούμενα σχέδια). Ωστόσο επειδή το site είναι hosted στην Ιαπωνία, όπου ο διαμοιρασμός καρτούν σεξουαλικού περιεχομένου και εικόνων παιδιών δεν είναι παράνομος, οι δημιουργοί το χρησιμοποιούν για να προωθούν τη δουλειά τους σε ομάδες και μέσω hashtags.
Εκπρόσωπος του Pixiv είπε ότι δίνεται μεγάλη έμφαση στο συγκεκριμένο θέμα. Όπως είπε, στις 31 Μαΐου είχαν απαγορευτεί όλες οι φωτορεαλιστικές απεικονίσεις σεξουαλικού περιεχομένου που απεικόνιζαν ανηλίκους. Η εταιρεία είπε ότι είχε ενισχύσει τα συστήματα παρακολούθησής της και αφιέρωνε σημαντικούς πόρους για την αντιμετώπιση προβλημάτων που σχετίζονταν με τις εξελίξεις στην ΑΙ.
Η Σίπσανκς είπε στο BBC πως η έρευνά της έδειχνε ότι η παραγωγή εικόνων κακοποίησης παιδιών φαινόταν να γίνεται σε βιομηχανική κλίμακα. «Ο όγκος είναι τόσο τεράστιος, που κάποιοι (δημιουργοί) θα πούνε “σκοπεύουμε να φτιάχνουμε τουλάχιστον 1.000 εικόνες τον μήνα» σημείωσε.
Σχόλια από χρήστες σε μεμονωμένες εικόνες στο Pixiv δείχνουν ξεκάθαρα πως υπάρχει σεξουαλικό ενδιαφέρον για παιδιά, με κάποιους χρήστες να προσφέρονται ακόμα και να παρέχουν εικόνες και βίντεο κακοποιήσεων που δεν δημιουργήθηκαν μέσω ΑΙ.
Η έρευνα του BBC έδειξε ότι υπήρχαν λογαριασμοί στο Patreon που παρείχαν προς πώληση φωτορεαλιστικές, χυδαίες εικόνες που δημιουργήθηκαν με ΑΙ όπου απεικονίζονταν παιδιά, σε διαφορετικές τιμές, ανάλογα με το είδος του υλικού. Κάποιος έγραφε στον λογαριασμό του «εκπαιδεύω τα κορίτσια μου στο PC μου» προσθέτοντας πως δείχνουν «υποταγή». Για 8,30 δολάρια τον μήνα, κάποιος άλλος παρείχε «αποκλειστική, χωρίς λογοκρισία τέχνη».
Το Patreon λέει ότι έχει πολιτική μηδενικής ανοχής, υποστηρίζοντας πως οι δημιουργοί δεν μπορούν να χρηματοδοτούν περιεχόμενο που σχετίζεται με σεξουαλικές θεματολογίες που εμπεριέχουν ανήλικους. Η εταιρεία είπε ότι η αύξηση στο παραγόμενο μέσω ΑΙ επιβλαβές υλικό στο Ίντερνετ ήταν «πραγματική και ανησυχητική» προσθέτοντας πως βρίσκει και απομακρύνει όλο μεγαλύτερες ποσότητες.
Το Stable Diffusion δημιουργήθηκε στο πλαίσιο διεθνούς συνεργασίας μέσω ακαδημαϊκών και εταιρειών. Έχουν κυκλοφορήσει διάφορες εκδόσεις του, με περιορισμούς στον κώδικα που ελέγχουν το είδος περιεχομένου που μπορεί να φτιαχτεί. Ωστόσο πέρυσι βγήκε μια open source έκδοση που επέτρεπε στους χρήστες να βγάζουν τα φίλτρα και να το εκπαιδεύουν στην παραγωγή οποιασδήποτε εικόνας- ακόμα και παράνομων.
Η Stability AI είπε στο BBC ότι «απαγορεύει οποιαδήποτε κατάχρηση για παράνομους ή ανήθικους σκοπούς στις πλατφόρμες μας και οι πολιτικές μας είναι ξεκάθαρες ως προς το ότι αυτό περιλαμβάνει υλικό σεξουαλικής κακοποίησης παιδιών».