Quantcast
Viewing all articles
Browse latest Browse all 3765

☕️ Apple poursuivie pour n’avoir pas déployé ses outils de détection de contenus pédocriminels

Apple est poursuivie en justice par des victimes de pédocriminalité pour n’avoir pas déployé les outils de détection des contenus d’agression sexuelle sur mineurs (Child sexual abuse material, CSAM) dans iCloud, contrairement à ce qu’elle avait annoncé. 


En 2021, l’entreprise avait en effet déclaré travailler à un outil capable de signaler les contenus problématiques au National Center for Missing and Exploited Children (NCMEC). 


Image may be NSFW.
Clik here to view.
logo apple

Sévèrement critiquée pour les implications d’un tel outil sur la vie privée des internautes, elle avait finalement renoncé à son projet.

D’après le New-York Times, la plainte indique qu’en conséquence, Apple aurait vendu des produits défectueux à une catégorie de clients – les mineurs victimes d’agression sexuelle.

Le groupe de 2 680 victimes éligibles pour rejoindre la plainte cherche à obtenir plus de 1,2 milliard de dollars de compensation.

Fin juillet, la National Society for the Prevention of Cruelty to Children (NSCPCC, société nationale de prévention de la cruauté envers les enfants) britannique avait déjà accusé Apple de manquer à ses obligations de signalement des contenus CSAM.


Viewing all articles
Browse latest Browse all 3765

Trending Articles