Apple ha decidido cancelar definitivamente los planes que tenía para escanear las fotos subidas a iCloud con un sistema semi-automático en búsqueda de imágenes catalogadas oficialmente como abuso infantil (CSAM). La razón de la cancelación es la gran controversia que levantó en el momento que fue anunciado. A pesar de ser un sistema diseñado desde el principio para proteger la privacidad de los usuarios, con control de agencias externas a Apple y sin necesidad de comprobar las imágenes en cuanto a su contenido, sino utilizando un algoritmo matemático, las preocupaciones de privacidad que ha levantado en muchos usuarios han dado como resultado la cancelación de todo el proyecto.
La idea de Apple siempre fue, y continúa siendo, proteger a los niños de abusos de todo tipo. En declaraciones a Wired, Apple ha declarado esto en torno a la cancelación de este sistema.
Este sistema de detección de imágenes de abuso infantil funcionaba de la siguiente manera; Un programa examinaba los ficheros de imágenes que se subían a iCloud automáticamente, y mediante una fórmula matemática, asigna un número (en realidad un código alfanumérico) a cada una de ellas. Este número es único y sólo se asigna a esa imagen, en función de su contenido. Hasta aquí, ninguna persona ha visto ninguna imagen de ningún usuario, y ese número no permite recrear es imagen, aunque sí permite diferenciarla entre todas las demás. El gobierno de los EEUU (y otros) hace lo mismo con las imágenes conocidas de abuso infantil que se almacenan en una base de datos de un organismo gubernamental. Así, se obtiene una lista de hashes (códigos alfanuméricos) que identifican esas imágenes inequívocamente. Si los códigos que iCloud almacena y los de esta base de datos de imágenes conocidas de abuso sexual coinciden, tenemos un positivo. Si hay varios casos de positivos consecutivos (porque es muy probable que un pederasta, por ejemplo, almacene más de una imagen) una alarma salta y una persona de verdad examina sólo esas imágenes. Sólo en ese caso, y sólo esas imágenes cuyo código alfanumérico único coincide con el de las imágenes prohibidas, se examinan esas fotos, básicamente para garantizar que se trata de un falso positivo, una posibilidad increíblemente remota y poco probable, pero una posibilidad al fin y al cabo. Sólo cuando una persona confirma que esas fotos son efectivamente de abusos infantiles, sería cuando Apple se pondría en contacto con la policía para que tomen cartas en el asunto.
A pesar de todas las salvaguardas que tenía el sistema y de que está matemáticamente demostrado que es increíblemente difícil que haya falsos positivos, el hecho de que una persona finalmente pudiera ver cualquier de las imágenes que tenemos en iCloud, preocupaba a muchos usuarios. Apple pausó primero el proyecto, y más de un año después, lo ha cancelado definitivamente ante la polémica causada.