Apple cancela definitivamente sus planes de escanear las fotos de los usuarios en búsqueda de abusos infantiles (CSAM)

Apple ha decidido cancelar definitivamente los planes que tenía para escanear las fotos subidas a iCloud con un sistema semi-automático en búsqueda de imágenes catalogadas oficialmente como abuso infantil (CSAM). La razón de la cancelación es la gran controversia que levantó en el momento que fue anunciado. A pesar de ser un sistema diseñado desde el principio para proteger la privacidad de los usuarios, con control de agencias externas a Apple y sin necesidad de comprobar las imágenes en cuanto a su contenido, sino utilizando un algoritmo matemático, las preocupaciones de privacidad que ha levantado en muchos usuarios han dado como resultado la cancelación de todo el proyecto.

Detección automática de imágenes ilegales de abusos a menores en el iPhone
Detección automática de imágenes ilegales de abusos a menores en el iPhone.

La idea de Apple siempre fue, y continúa siendo, proteger a los niños de abusos de todo tipo. En declaraciones a Wired, Apple ha declarado esto en torno a la cancelación de este sistema.

Después de consultar con expertos profundamente sobre este tema para saber sus opiniones sobre estas iniciativas de protección de niños, estamos profundizando nuestra inversión en la comunicación segura [cifrado de punta a punta] que ya está disponible desde diciembre de 2021. Hemos decidido no continuar adelante con nuestra propuesta de detección automática de imágenes de abuso infantil (CSAM) para las fotos de iCloud. Los niños pueden ser protegidos sin que las compañías tengan que escrutar los datos personales de sus usuarios. Continuaremos trabajando con gobiernos, organismos de protección infantil y otras empresas para ayudar a proteger a los más jóvenes, preservar su derecho a la privacidad y hacer de internet un lugar más seguro para todos nosotros.

Este sistema de detección de imágenes de abuso infantil funcionaba de la siguiente manera; Un programa examinaba los ficheros de imágenes que se subían a iCloud automáticamente, y mediante una fórmula matemática, asigna un número (en realidad un código alfanumérico) a cada una de ellas. Este número es único y sólo se asigna a esa imagen, en función de su contenido. Hasta aquí, ninguna persona ha visto ninguna imagen de ningún usuario, y ese número no permite recrear es imagen, aunque sí permite diferenciarla entre todas las demás. El gobierno de los EEUU (y otros) hace lo mismo con las imágenes conocidas de abuso infantil que se almacenan en una base de datos de un organismo gubernamental. Así, se obtiene una lista de hashes (códigos alfanuméricos) que identifican esas imágenes inequívocamente. Si los códigos que iCloud almacena y los de esta base de datos de imágenes conocidas de abuso sexual coinciden, tenemos un positivo. Si hay varios casos de positivos consecutivos (porque es muy probable que un pederasta, por ejemplo, almacene más de una imagen) una alarma salta y una persona de verdad examina sólo esas imágenes. Sólo en ese caso, y sólo esas imágenes cuyo código alfanumérico único coincide con el de las imágenes prohibidas, se examinan esas fotos, básicamente para garantizar que se trata de un falso positivo, una posibilidad increíblemente remota y poco probable, pero una posibilidad al fin y al cabo. Sólo cuando una persona confirma que esas fotos son efectivamente de abusos infantiles, sería cuando Apple se pondría en contacto con la policía para que tomen cartas en el asunto.

A pesar de todas las salvaguardas que tenía el sistema y de que está matemáticamente demostrado que es increíblemente difícil que haya falsos positivos, el hecho de que una persona finalmente pudiera ver cualquier de las imágenes que tenemos en iCloud, preocupaba a muchos usuarios. Apple pausó primero el proyecto, y más de un año después, lo ha cancelado definitivamente ante la polémica causada.