Pourquoi Apple a abandonné son projet de scanner vos photos iCloud

Pourquoi Apple a abandonné son projet de scanner vos photos iCloud

Apple a annoncé son intention d’analyser votre contenu iCloud à la recherche de matériel d’abus sexuel d’enfants (CSAM) en août 2021 afin de protéger les enfants contre les abus des prédateurs.

La société prévoyait de lancer une nouvelle fonctionnalité de détection CSAM dans iCloud Photos qui analyserait ce contenu et signalerait les images correspondantes à Apple tout en préservant la confidentialité des utilisateurs.

Cependant, la nouvelle fonctionnalité a suscité des réactions mitigées. Plus d’un an après l’annonce initiale, Apple abandonne officiellement son projet de scanner iCloud Photos pour CSAM.

Apple abandonne son projet de scanner iCloud à la recherche de matériel pédopornographique

Selon un rapport de WIRED , Apple renonce à son plan d’analyse de votre iCloud à la recherche de contenu pédopornographique. L’outil analyserait les photos stockées sur iCloud pour trouver celles qui correspondent aux images CSAM connues telles qu’identifiées par les organisations de sécurité des enfants. Il pourrait alors signaler ces images car la possession d’images CSAM est illégale dans la plupart des juridictions, y compris aux États-Unis.

Pourquoi Apple a annulé son plan de numérisation des photos iCloud

Après l’annonce initiale en 2021, Apple a dû faire face à des réactions négatives de la part de clients, de groupes et d’individus défendant la confidentialité et la sécurité numériques dans le monde entier. Les iPhones offrent généralement plus de sécurité que les appareils Android, et beaucoup y voient un pas en arrière. Bien que ce soit une victoire pour les organisations de sécurité des enfants, plus de 90 groupes politiques ont écrit une lettre ouverte à Apple plus tard le même mois, demandant à l’entreprise d’annuler le plan.

La devanture d'un Apple Store

La lettre affirmait que si l’outil visait à protéger les enfants contre les abus, il pourrait être utilisé pour censurer la liberté d’expression et menacer la vie privée et la sécurité des utilisateurs. En raison de la pression croissante, Apple a interrompu ses plans de lancement pour recueillir des commentaires et apporter les ajustements nécessaires à la fonctionnalité. Cependant, les commentaires n’ont pas favorisé le projet d’Apple de numériser les photos iCloud, de sorte que la société abandonne officiellement les plans pour de bon.

Dans une déclaration à WIRED, la société a déclaré :

« Nous avons. .. a décidé de ne pas aller de l’avant avec notre outil de détection CSAM précédemment proposé pour iCloud Photos. Les enfants peuvent être protégés sans que les entreprises ne passent au peigne fin les données personnelles, et nous continuerons à travailler avec les gouvernements, les défenseurs des enfants et d’autres entreprises pour aider à protéger les jeunes, à préserver leur droit à la vie privée et à faire d’Internet un endroit plus sûr pour les enfants et pour nous tous. .”

Le nouveau plan d’Apple pour protéger les enfants

Apple réoriente ses efforts pour améliorer les fonctionnalités de sécurité des communications annoncées en août 2021 et lancées en décembre de la même année.

La sécurité des communications est facultative et peut être utilisée par les parents et les tuteurs pour protéger les enfants contre l’envoi et la réception d’images sexuellement explicites dans iMessage. La fonction brouille automatiquement ces photos et l’enfant sera averti des dangers encourus. Il avertit également quiconque essaie de rechercher CSAM sur des appareils Apple.

Le projet de lancement d’un outil de détection de CSAM ayant été annulé, la société est impatiente d’améliorer encore la fonctionnalité et de l’étendre à davantage d’applications de communication.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *