Αναγνώστες σαν εσάς βοηθούν στην υποστήριξη του MUO. Όταν κάνετε μια αγορά χρησιμοποιώντας συνδέσμους στον ιστότοπό μας, ενδέχεται να κερδίσουμε μια προμήθεια θυγατρικών. Διαβάστε περισσότερα.

Η Apple ανακοίνωσε σχέδια να σαρώσει το περιεχόμενό σας στο iCloud για υλικό σεξουαλικής κακοποίησης παιδιών (CSAM) τον Αύγουστο του 2021 για να προστατεύσει τα παιδιά από την κακοποίηση από αρπακτικά.

Η εταιρεία σχεδίαζε να λανσάρει μια νέα δυνατότητα ανίχνευσης CSAM στο iCloud Photos που θα σαρώνει για τέτοιο περιεχόμενο και θα αναφέρει αντίστοιχες εικόνες στην Apple, διατηρώντας παράλληλα το απόρρητο των χρηστών.

Ωστόσο, το νέο χαρακτηριστικό γνώρισε ποικίλες αντιδράσεις. Πάνω από ένα χρόνο από την αρχική ανακοίνωση, η Apple εγκαταλείπει επίσημα το σχέδιό της για σάρωση iCloud Photos για CSAM.

Η Apple εγκαταλείπει το σχέδιό της για σάρωση iCloud για υλικό κακοποίησης παιδιών

Σύμφωνα με έκθεση του ΣΥΡΜΑΤΟΣ, η Apple αποχωρεί από το σχέδιό της να σαρώσει το iCloud σας για περιεχόμενο κακοποίησης παιδιών. Το εργαλείο θα σάρωνε φωτογραφίες που είναι αποθηκευμένες στο iCloud για να βρει εκείνες που ταιριάζουν με γνωστές εικόνες CSAM, όπως προσδιορίζονται από τις οργανώσεις για την ασφάλεια των παιδιών. Στη συνέχεια, θα μπορούσε να αναφέρει αυτές τις εικόνες επειδή η κατοχή εικόνων CSAM είναι παράνομη στις περισσότερες δικαιοδοσίες, συμπεριλαμβανομένων των ΗΠΑ.

instagram viewer

Γιατί η Apple ακύρωσε το σχέδιό της για σάρωση φωτογραφιών iCloud

Μετά την αρχική ανακοίνωση το 2021, η Apple αντιμετώπισε αντιδράσεις από πελάτες, ομάδες και άτομα που υποστήριζαν το ψηφιακό απόρρητο και την ασφάλεια σε όλο τον κόσμο. Τα iPhone συνήθως προσφέρουν περισσότερη ασφάλεια από τις συσκευές Android, και πολλοί το θεώρησαν ως ένα βήμα πίσω. Ενώ ήταν μια νίκη για τους οργανισμούς για την ασφάλεια των παιδιών, περισσότερες από 90 ομάδες πολιτικής έγραψαν μια ανοιχτή επιστολή στην Apple αργότερα τον ίδιο μήνα, λέγοντας στην εταιρεία να ακυρώσει το σχέδιο.

Η επιστολή υποστήριξε ότι ενώ το εργαλείο προτίθεται να προστατεύουν τα παιδιά από την κακοποίηση, θα μπορούσε να χρησιμοποιηθεί για να λογοκρίνει την ελευθερία του λόγου και να απειλήσει το απόρρητο και την ασφάλεια των χρηστών. Λόγω της αυξανόμενης πίεσης, η Apple διέκοψε τα σχέδιά της για να συλλέξει σχόλια και να κάνει τις απαραίτητες προσαρμογές στη λειτουργία. Ωστόσο, τα σχόλια δεν ευνόησαν το σχέδιο της Apple να σαρώσει το iCloud Photos, οπότε η εταιρεία εγκαταλείπει επίσημα οριστικά τα σχέδια.

Σε δήλωση στο WIRED, η εταιρεία είπε:

"Εχουμε... αποφάσισε να μην προχωρήσει με το προηγουμένως προτεινόμενο εργαλείο ανίχνευσης CSAM για τις Φωτογραφίες iCloud. Τα παιδιά μπορούν να προστατεύονται χωρίς οι εταιρείες να χτενίζουν τα προσωπικά δεδομένα και θα συνεχίσουμε να συνεργαζόμαστε με κυβερνήσεις, συνήγορες παιδιών και άλλες εταιρείες για να βοηθήσουν στην προστασία των νέων, να διατηρήσουν το δικαίωμά τους στην ιδιωτική ζωή και να κάνουν το διαδίκτυο ασφαλέστερο μέρος για τα παιδιά και για εμάς όλα."

Το νέο σχέδιο της Apple για την προστασία των παιδιών

Η Apple ανακατευθύνει τις προσπάθειές της για τη βελτίωση των λειτουργιών Ασφάλειας Επικοινωνίας που ανακοινώθηκαν τον Αύγουστο του 2021 και κυκλοφόρησαν τον Δεκέμβριο του ίδιου έτους.

Το Communication Safety είναι προαιρετικό και μπορεί να χρησιμοποιηθεί από γονείς και κηδεμόνες για την προστασία των παιδιών τόσο από την αποστολή όσο και από τη λήψη σεξουαλικών εικόνων στο iMessage. Η λειτουργία θολώνει αυτόματα τέτοιες φωτογραφίες και το παιδί θα προειδοποιηθεί για τους κινδύνους που ενέχει. Προειδοποιεί επίσης οποιονδήποτε εάν προσπαθήσει να αναζητήσει CSAM σε συσκευές Apple.

Με τα σχέδια να κυκλοφορήσει ένα εργαλείο ανίχνευσης CSAM ακυρωμένα, η εταιρεία προσβλέπει στη βελτίωση της δυνατότητας περαιτέρω και στην επέκτασή της σε περισσότερες εφαρμογές επικοινωνίας.