Internet

Η Apple δεν θα δώσει στις Αρχές το σύστημα παρακολούθησης CSAM

Το σύστημα CSAM, για τον εντοπισμό περιστατικών παιδικής πορνογραφίας, της Apple δεν πρόκειται να πέσει σε κυβερνητικά χέρια. Αυτό, τουλάχιστον, διαβεβαιώνει η εταιρεία, ακόμα και εάν της ζητηθεί έντονα κάτι τέτοιο.

Το σύστημα CSAM της Apple αναλαμβάνει τον έλεγχο του iCloud για υλικό παιδικής πορνογραφίας ή άλλες περιπτώσεις παιδικής κακοποίησης, προκειμένου να εντοπίσει τέτοιο υλικό στους servers της. Όταν η Apple ανακοίνωσε ότι θα ξεκινήσει τον έλεγχο των δεδομένων που ανεβαίνουν στο cloud της, δημιουργήθηκε η εύλογη ανησυχία αναφορικά με το εάν έτσι δημιουργείται ένα εργαλείο μαζικής παρακολούθησης των πολιτών.

Για να διασκεδάσει τις ανησυχίες αυτές, η Apple ξεκαθάρισε ότι σε καμία περίπτωση δεν θα επιτρέψει τη χρήση της τεχνολογίας της από κυβερνητικούς φορείς και κρατικές υπηρεσίες, ακόμα και εάν της ζητηθεί επιτακτικά. Μάλιστα, η Apple διευκρινίζει ότι η συγκεκριμένη τεχνολογία είναι αυστηρά περιορισμένη στη χρήση στο iCloud και δεν πρόκειται να επεκταθεί για κανένα λόγο.

Αρχικά, η Apple θα εξετάσει τις φωτογραφίες που έχουν ήδη ανέβει στο iCloud και δεν πρόκειται να μπει σε ιδιωτικές συλλογές φωτογραφιών που δεν έχουν δημοσιευτεί σε online φακέλους.

Σχόλια

  • Ετσι λεγανε και για το κλειδι ξεκλειδωματος σε ενα περιστατικο με κινητο νεκρου τρομοκρατη στις ΗΠΑ ...

  • και μετα ηρθε ο δρακος και αρχισε να βγαζει φωτιες και τον νίκησε ο ιππότης (αφου γράφουμε παραμύθια ας γράψω και εγώ)

Κοινοποίηση
Συντάκτης:
Νίκος Καϊμακάμης

Χρησιμοποιούμε cookies για να παρέχουμε την καλύτερη δυνατή εμπειρία.