Notebookcheck Logo

Apple poursuivi en justice pour ne pas avoir mis en œuvre la détection du CSAM dans iCloud

Apple poursuivi pour ne pas avoir mis en œuvre la détection du CSAM dans iCloud (Image Source : Photo by Tayyab Ejaz on Unsplash)
Apple poursuivi pour ne pas avoir mis en œuvre la détection du CSAM dans iCloud (Image Source : Photo by Tayyab Ejaz on Unsplash)
Apple fait l'objet d'une action en justice en Californie du Nord pour n'avoir pas trouvé le moyen de mettre en œuvre la détection du CSAM dans iCloud. L'action en justice, intentée par une victime, affirme que l'abandon du programme par Apple n'a pas empêché que ses images soient partagées en ligne.

En 2021, Apple a annoncé puis rapidement rétracté un système iCloud controversé qui aurait analysé les photos iMessage et iCloud à la recherche de matériel pédopornographique.

Ce système aurait permis à Apple d'analyser les photos contenues dans les appareils Apple utilisés par les enfants, mais l'entreprise s'est retrouvée dans l'œil du cyclone en raison des inquiétudes soulevées par des experts et des groupes de défense de la vie privée. Apple a abandonné le système, déclarant qu'elle "prendrait plus de temps au cours des prochains mois pour recueillir des commentaires et apporter des améliorations avant de publier ces fonctions de sécurité pour les enfants d'une importance cruciale"

Depuis lors, Apple est resté silencieux sur les fonctionnalités relatives à CSAM. Aujourd'hui (via Engadget), une action en justice intentée par une victime, déposée auprès du tribunal de district de Californie du Nord, allègue que l'incapacité de Apple à mettre en place des mesures de sécurité a conduit à la diffusion d'images d'elle en ligne de manière inappropriée.

L'affaire a été rapportée pour la première fois par le New York Times, la jeune femme de 27 ans a déclaré que sa mère et elle recevaient constamment des notifications concernant plusieurs personnes accusées de possession de drogue. L'action en justice réclame une compensation financière pour les 2680 victimes dont les images ont été divulguées en ligne.

Apple le porte-parole de CSAM, Fred Sainz, a déclaré à Engadget que CSAM "est odieux, et nous sommes déterminés à lutter contre les méthodes des prédateurs qui mettent les enfants en danger" Fred Sainz a déclaré que l'entreprise cherchait "de toute urgence et activement" des moyens de "combattre ces crimes sans compromettre la sécurité et la vie privée de tous nos utilisateurs"

Source(s)

Engadget, The New York Times

Source de l'image : Photo par Tayyab Ejaz sur Unsplash

Please share our article, every link counts!
Mail Logo
> Revues et rapports de ordinateurs portatifs et smartphones, ordiphones > Archives des nouvelles 2024 12 > Apple poursuivi en justice pour ne pas avoir mis en œuvre la détection du CSAM dans iCloud
Rohith Bhaskar, 2024-12- 9 (Update: 2024-12- 9)