Customise Consent Preferences

We use cookies to help you navigate efficiently and perform certain functions. You will find detailed information about all cookies under each consent category below.

The cookies that are categorised as "Necessary" are stored on your browser as they are essential for enabling the basic functionalities of the site. ... 

Always Active

Necessary cookies are required to enable the basic features of this site, such as providing secure log-in or adjusting your consent preferences. These cookies do not store any personally identifiable data.

No cookies to display.

Functional cookies help perform certain functionalities like sharing the content of the website on social media platforms, collecting feedback, and other third-party features.

No cookies to display.

Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics such as the number of visitors, bounce rate, traffic source, etc.

No cookies to display.

Performance cookies are used to understand and analyse the key performance indexes of the website which helps in delivering a better user experience for the visitors.

No cookies to display.

Advertisement cookies are used to provide visitors with customised advertisements based on the pages you visited previously and to analyse the effectiveness of the ad campaigns.

No cookies to display.

22.8 C
Nicosia
Τετάρτη 21 Μαΐου 2025 | 11:38

Apple: Σχέδια για σύστημα που θα εντοπίζει εικόνες κακοποίησης παιδιών στα iPhones

H Apple παρουσίασε λεπτομέρειες ενός συστήματος που θα εντοπίζει υλικό σεξουαλικής κακοποίησης παιδιών (CSAM- child sexual abuse material) σε συσκευές των χρηστών της στις ΗΠΑ.

Πριν μια εικόνα αποθηκευτεί στο iCloud Photos, η τεχνολογία αυτή θα εξετάζει εάν αντιστοιχεί σε ήδη γνωστές εικόνες τέτοιου περιεχομένου. Όπως εξήγησε η εταιρεία, εάν βρεθεί αντιστοιχία, ένας άνθρωπος αξιολογητής θα αξιολογεί την εικόνα και μετά θα αναφέρει τον χρήστη στις αρμόδιες αρχές.

Ωστόσο, όπως σημειώνει το BBC, υπάρχουν προβληματισμοί περί ιδιωτικότητας/ απορρήτου, καθώς δεν είναι λίγοι αυτοί που θεωρούν ότι η τεχνολογία αυτή θα μπορούσε να επεκταθεί έτσι ώστε να «σαρώνονται» τηλέφωνα για απαγορευμένο γενικότερα υλικό, ή πολιτικό περιεχόμενο. Ειδικοί επίσης θεωρούν πως αυτή η τεχνολογία θα μπορούσε να χρησιμοποιηθεί από απολυταρχικές κυβερνήσεις για να παρακολουθούν τους πολίτες τους .

H Apple είπε πως νέες εκδόσεις των iOS και iPadOS, που πρόκειται να βγουν αργότερα μέσα στο έτος, θα έχουν «νέες εφαρμογές κρυπτογράφησης για να βοηθήσουν στον περιορισμό της εξάπλωσης του CSAM online, σχεδιάζοντας παράλληλα για την ιδιωτικότητα των χρηστών».

Οι εικόνες αυτές «μεταφράζονται» σε «hashes» κώδικες με αριθμούς που μπορούν να αντιστοιχίζονται σε εικόνες σε συσκευές της Apple. Σύμφωνα με την εταιρεία, η τεχνολογία αυτή θα μπορεί να εντοπίζει και τροποποιημένες μα παρόμοιες εκδόσεις των αρχικών εικόνων.

«Πριν μια εικόνα αποθηκευτεί στο iCloud Photos, πραγματοποιείται μια διαδικασία αντιστοίχισης on-device σε σύγκριση με τα γνωστά hashes CSAM» ανέφερε η εταιρεία, που υποστηρίζει ότι το σύστημα έχει ένα «εξαιρετικά υψηλό επίπεδο ακριβείας και εξασφαλίζει μια κάτω από 1/1.000.000.000.000 πιθανότητα ετησίως για λανθασμένη υπόδειξη».

Η Apple λέει ότι κάθε αναφορά θα εξετάζεται από άνθρωπο για να επιβεβαιωθεί αν όντως υπάρχει αντιστοίχιση- και μετά θα γίνονται βήματα για απενεργοποίηση του λογαριασμού του χρήστη και αναφορά του στις αρχές.

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

Press Room

Μείνετε ενημερωμένοι με τo newsletter μας!

ΑρχικήBUSINESSΤΕΧΝΟΛΟΓΙΑApple: Σχέδια για σύστημα που θα εντοπίζει εικόνες κακοποίησης παιδιών στα iPhones