Σε μια συνέντευξη στο Wall Street Journal, ο Senior Vice President της Apple, Craig Federighi, συζήτησε την αντίδραση του κόσμου στα νέα features του iCloud και του iOS 15 σχετικά με την πολιτική ασφαλείας των ανήλικων χρηστών του.

Στην συνέντευξη ο Federighi παραδέχτηκε πως η ταυτόχρονη ανακοίνωση των γονικών ελέγχων στο iMessage με την ανακοίνωση για το σκανάρισμα και την εύρεση υλικού παιδικής πορνογραφίας (CSAM) στο iCloud, δύο παρόμοιων φαινομενικά συστημάτων όμως με άκρως διαφορετικές λειτουργίες, προκάλεσε ταραχή τόσο στα ΜΜΕ όσο και στους πελάτες της εταιρείας, ενώ σχολίασε πως σίγουρα θα μπορούσαν να είχαν κάνει καλύτερη δουλειά, από πλευράς μάρκετινγκ.

Έπειτα επισήμανε πως το νέο σύστημα για την εύρεση CSAM μέσα στο iCloud, ίσχύει μόνο για φωτογραφίες που έχουν ανεβεί στο iCloud ενώ είναι αυτόματα απενεργοποιημένο αν το iCloud Photos back-up δεν χρησιμοποιείτε από τον χρήστη. «Ελπίσαμε να ήταν πιο κατανοητό όταν έγινε η ανακοίνωση, διότι νιώθουμε πολύ έντονα και θετικά για αυτό που κάνουμε και μπορούμε να δούμε ξεκάθαρα πως παρεξηγήθηκε ευρέως.», δήλωσε.

Το συγκεκριμένο εργαλείο (που μέχρι στιγμής θα λειτουργεί μόνο στις ΗΠΑ) χρησιμοποιεί έναν αλγόριθμο που βασίζεται στα κρυπτογραφικά hash, ώστε να εντοπίζει ήδη-γνωστό περιεχόμενο παιδικής πορνογραφίας στην συσκευή κάποιου χρήστη. Ωστόσο, για να αποφύγουν περιπτώσεις όπου ένας λογαριασμός κριθεί λανθασμένα ως ύποπτος, η Apple έθεσε ένα ελάχιστο όριο για τον αριθμό περιπτώσεων που αναγνωρίστηκε τέτοιο υλικό. Όταν αυτό το όριο ξεπεραστεί, το σύστημα τότε αναφέρει αυτόματα τον λογαριασμό στην Apple για να κριθεί από ανθρώπους και εάν εφόσον αποδεικτεί παράνομο περιεχόμενο τότε θα σταλθούν τα στοιχεία στον οργανισμό NCMEC (National Center for Missing & Exploited Children). Σύμφωνα με τον Federighi το όριο αυτό είναι 30 (γνωστές) φωτογραφίες, ενώ εξήγησε πως ακόμα και σε έναν “flagged” λογαριασμό, οι άνθρωποι που θα εξετάσουν το υλικό θα έχουν πρόσβαση μόνο σε αυτές τις φωτογραφίες, όχι σε ολόκληρο τον λογαριασμό.

Όταν ο αντιπρόεδρος της εταιρείας ρωτήθηκε για το εάν με το σύστημα αυτό η Apple θα δίνει σε κυβερνήσεις ένα “backdoor”, αρνήθηκε, δηλώνοντας πως το σύστημα σχεδιάστηκε με τέτοιον τρόπο ώστε να μη μπορεί να το εκμεταλλευτεί κάποιος τρίτος.

Την ίδια στιγμή, το δεύτερο feature που ανακοίνωσε η Apple ήταν ένα νέο σύστημα γονικού ελέγχου για το iMessage/Messages, το οποίο θα προστατεύει παιδιά κάτω των 13 από το να λάβουν ακατάλληλο περιεχόμενο. Μέσω ενός on-device αλγορίθμου μηχανικής μάθησης, θα ανιχνέυονται φωτογραφίες που περιέχουν γυμνότητα με σκοπό να την κρύβει, μέχρι ο χρήστης να επιβεβαιώσει ότι θέλει να την δει. Οι γονείς του παιδιού-χρήστη μπορούν να ενεργοποιήσουν μια επιπλέον λειτουργία που θα στέλνει μια ειδοποίηση στους γονείς όταν το παιδί δει μια τέτοιου τύπου φωτογραφία.

Ο Craig Federighi δήλωσε προς στο τέλος της συνέντευξης (απαντώντας στο «γιατί να το κάνει η Apple αυτό τώρα;») πως ο λόγος πίσω από αυτές τις κινήσεις δεν είναι κάποια πίεση από κρατικούς και μη οργανισμούς, αλλά γιατί βρήκαν επιτέλους τον τρόπο να εφαρμόσουν συστήματα που θα προστατεύουν τους ανήλικους χρήστες και τα παιδιά γενικότερα, προστατεύοντας ταυτόχρονα την ιδιωτικότητα των χρηστών τις.