Η Apple ανακοίνωσε ένα νέο σύστημα εύρεσης υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) στις συσκευές των Αμερικανών πελατών.
Πριν αποθηκευτεί μια εικόνα στις Φωτογραφίες iCloud, το σύστημα θα αναζητά αντιστοιχίσεις ήδη ταυτοποιημένου CSAM.
Η Apple είπε ότι εάν εντοπίζεται αντιστοιχία, ένας αναθεωρητής θα αξιολογεί και θα αναφέρει τον χρήστη στις αρμόδιες αρχές.
Ωστόσο, υπάρχουν ανησυχίες για την προστασία προσωπικών δεδομένων καθώς η εν λόγω τεχνολογία θα μπορούσε να επεκταθεί για να σκανάρει τηλέφωνα για απαγορευμένο περιεχόμενο ή ακόμη και για πολιτικούς λόγους.
Οι ειδικοί ανησυχούν μάλιστα ότι η τεχνολογία αυτή θα μπορούσε να χρησιμοποιηθεί από αυταρχικές κυβερνήσεις για να κατασκοπεύει τους πολίτες της.
Η Apple είπε ότι οι νέες εκδόσεις iOS και iPadOS - που θα κυκλοφορήσουν αργότερα φέτος - θα έχουν ”νέες εφαρμογές κρυπτογραφίας που θα βοηθούν στον περιορισμό της εξάπλωσης του CSAM online, ενώ θα μεριμνούν για την προστασία της ιδιωτικής ζωής των χρηστών”.
Το σύστημα λειτουργεί με σύγκριση εικόνων με μια βάση δεδομένων με κατοχυρωμένες εικόνες σεξουαλικής κακοποίησης παιδιών που δημιουργήθηκε από το Εθνικό Κέντρο των ΗΠΑ για Εξαφανισμένα και Εκμεταλλευόμενα Παιδιά (NCMEC) και άλλους οργανισμούς για την ασφάλεια των παιδιών.
Αυτές οι εικόνες μεταφράζονται σε “hashes”, δηλαδή αριθμητικούς κωδικούς που μπορούν να ”ταιριάξουν” με μια εικόνα σε μια συσκευή Apple.
Πηγή: BBC