logo Begeek

Apple soupçonné de minimiser les soupçons de CSAM sur ses plateformes

Apple soupçonné de minimiser les soupçons de CSAM sur ses plateformes
Publié le , mis à jour le

Selon un régulateur britannique, Apple est en retard par rapport à bon nombre de ses concurrents pour résoudre cette problématique.

TL;DR

  • Apple est accusé de sous-déclarer les contenus pédopornographiques sur ses plateformes.
  • Les chiffres d’Apple contrastent avec ceux de Google, Meta et d’autres plateformes.
  • Apple a abandonné son projet de détection de CSAM suite à une polémique sur la vie privée.

Apple face à de sérieuses accusations

Apple, acteur incontournable du secteur technologique, se voit accuser de sous-déclarer l’ampleur des contenus à caractère pédopornographique (CSAM) présents sur ses plateformes. L’accusation provient de la NSPCC, une association britannique dédiée à la protection de l’enfance.

Des chiffres accablants

Rappelons que toute entreprise technologique basée aux États-Unis est tenue de signaler toute éventualité de CSAM détectée sur ses plateformes au NCMEC, organisme qui redirige les cas vers les agences d’application de la loi compétentes à l’échelle mondiale. En 2023, Apple n’a signalé que 267 cas de CSAM dans le monde, soit une ombre comparée aux 1,47 million de cas potentiels signalés par Google et aux 30,6 millions de signalements émanant de Meta. D’autres plateformes, dont TikTok, Snapchat et PlayStation/Sony Interactive Entertainment, ont, elles aussi, déclaré plus de situations suspectes qu’Apple.

Une défense discutable

La firme à la Pomme, pour sa défense, arguait que des services comme iMessage, FaceTime et iCloud utilisent tous un chiffrement de bout en bout, les empêchant ainsi de voir le contenu partagé par les utilisateurs. Cependant, ce point est contestable : « WhatsApp dispose également de ce type de chiffrement, mais a tout de même signalé près de 1,4 million de cas suspects à NCMEC en 2023 », rétorquent les experts.

Renforcement des mesures de protection ?

Avant l’éclatement de cette controverse, en 2021, Apple avait annoncé vouloir déployer un système de balayage des images avant leur téléchargement sur iCloud et de les comparer à une base de données d’images CSAM connues. Cependant, confrontée à des réactions hostiles de la part des défenseurs de la vie privée et des droits numériques, la firme californienne a retardé, puis finalement abandonné ce projet en 2022. « Les enfants peuvent être protégés sans que les compagnies fouillent dans les données personnelles, » avait alors déclaré la société à Wired en août 2022.

Pour l’heure, Apple n’a pas commenté les accusations de la NSPCC, réaffirmant simplement sa volonté de privilégier la « sécurité et la confidentialité » de ses utilisateurs.

Publicité

À lire aussi sur Begeek:

Accessibilité : partiellement conforme