Après un an dans les limbes, Apple tue discrètement sa fonction controversée de numérisation de photos CSAM
L’année dernière, Apple a annoncé son intention d’aider à lutter contre les abus sexuels sur les enfants dans plusieurs domaines. Dans le cadre d’iOS 15.2, Apple a mis en place une nouvelle fonctionnalité de contrôle parental pour Messages afin d’empêcher les enfants de voir ou d’envoyer des images sexuelles, et a renforcé Siri et Search pour fournir des ressources destinées aux enfants susceptibles d’en être victimes. Cependant, sa fonctionnalité la plus controversée, qui analyserait vos photos au fur et à mesure de leur téléchargement sur iCloud pour voir si elles correspondent à du matériel connu d’abus sexuels sur des enfants (CSAM), a été retardée.
Bien qu’Apple ait pris des mesures importantes pour s’assurer que la vie privée des utilisateurs serait protégée et que les acteurs extérieurs (comme les agences gouvernementales) ne pourraient pas utiliser la technologie pour obliger Apple à rechercher des images de choses comme des dissidents, cela a soulevé de nombreux drapeaux rouges dans le communauté de confidentialité. Dès le moment où il a été annoncé, les gens étaient préoccupés par la perspective d’une « surveillance de masse » et de permettre à Apple d’exécuter un système qui pourrait être utilisé pour rechercher
Mercredi, dans une interview avec le Wall Street Journal, Craig Federighi, vice-président principal de l’ingénierie logicielle d’Apple, a confirmé que la fonction de numérisation CSAM avait été abandonnée. Les autres fonctionnalités sont en place dans iOS depuis l’année dernière. Federighi a déclaré: «Les abus sexuels sur les enfants peuvent être évités avant qu’ils ne se produisent. C’est là que nous mettons notre énergie pour aller de l’avant.
Dans une déclaration à Wired, Apple a précisé : « Nous avons en outre décidé de ne pas aller de l’avant avec notre outil de détection CSAM précédemment proposé pour iCloud Photos. Les enfants peuvent être protégés sans que les entreprises ne passent au peigne fin les données personnelles, et nous continuerons à travailler avec les gouvernements, les défenseurs des enfants et d’autres entreprises pour aider à protéger les jeunes, à préserver leur droit à la vie privée et à faire d’Internet un endroit plus sûr pour les enfants et pour nous tous. .”
Il est possible que le système ait également rencontré des obstacles techniques. Apple a annoncé mercredi qu’il fournirait une option de chiffrement de bout en bout sur la plupart des données iCloud, y compris les photos, ce qui aurait pu rendre l’analyse CSAM trop difficile à mettre en œuvre correctement.