Todas las menciones a la función de rastreo de imágenes de abusos infantiles han sido retiradas de la web de Apple

Hace unas cuantas semanas, os contamos cómo Apple tuvo que dar marcha atrás con una nueva funcionalidad de rastreo de imágenes de abusos infantiles, un sistema conocido en inglés por las siglas CSAM que permite, mediante cálculos matemáticos, encontrar fotografías de este tipo de manera rápida y efectiva, aunque aparentemente no lo suficientemente perfecta para muchos usuarios. Este sistema no implica a ninguna persona mirando las fotos de nadie, y es totalmente anónimo hasta que un número elevado de imágenes da positivo, y su código hash o número asignado a cada imagen, coincide con las que hay en una base de datos de imágenes prohibidas de abusos a niños que está en posesión de un organismo gubernamental norteamericano. Que una imagen, sólo una, de un falso positivo es extremadamente poco probable, pero no imposible. Que muchas imágenes, varias decenas, den positivo, es mucho menos probable que, por ejemplo, te toque el gordo en la lotería de Navidad. Por poner un ejemplo. Incluso en el caso de que se den muchos falsos positivos, y sólo en ese caso, una persona en Apple ve esas fotos, y sólo si son fotos inaceptables, se comunica a las autoridades. Que tras todas estas comprobaciones se acuse a alguien de tener imágenes ilegales de abusos a niños de manera injusta, es increíblemente improbable. A pesar de todo esto, muchos pusieron el grito en el cielo por considerar esta comprobación, que ocurre en el iPhone sólo para las imágenes que se suben también a la copia de seguridad de iCloud, viola la privacidad de los usuarios. El prófugo Edward Snowden, fue uno de ellos.

Detección automática de imágenes ilegales de abusos a menores en el iPhone
Detección automática de imágenes ilegales de abusos a menores en el iPhone.

Apple dijo entonces que retrasaba el proyecto tras escuchar a todas estas personas y que se tomarían un tiempo adicional para determinar la viabilidad de esta función. Ahora, varios meses después, han retirado de su web todas las menciones a este sistema de protección infantil.

¿Qué significa esto? – La contestación a esta pregunta retórica, es sencilla; Sólo lo saben dentro de Apple. Desde fuera sólo podemos adivinar que esta funcionalidad, desde luego, no va a llegar con iOS 15 como estaba planeado inicialmente. Es probable, de hecho, que no llegue nunca. Que Apple no mencione la función en su web puede significar que ese tiempo que han dicho que se van a tomar, podría ser realmente muy largo, entre años e indefinidamente.

Newsletter