Por qué el nuevo sistema de detección de imágenes ilegales de iOS no es ningún problema de privacidad

Como no podía ser de otra manera, el anuncio de Apple de la implementación de un nuevo sistema de detección (no reconocimiento) de imágenes que tiene como objetivo encontrar y descubrir a las personas que tienen imágenes de abusos a menores en tu iPhone, está causando mucha repercusión. Sin embargo, la mayoría de las personas que hemos visto hablando de este asunto, incluyendo al famoso Snowden, simplemente no tienen mucha idea de lo que dicen. No sólo eso, sino que no se han molestado en leer la documentación técnica de este nuevo sistema, en el que se detalla con todo tipo de detalles demostrables cómo se preserva la privacidad del usuario, y cómo ni siquiera la propia Apple puede meter la mano en las imágenes de un usuario salvo en casos muy, muy concretos que sólo se limitarán, como no podía ser de otra manera, a esos usuarios que tienen un elevado número de imágenes prohibidas de esos abusos. Recordemos que la simple tenencia de esas imágenes es un delito reconocido en los códigos penales de muchos países. En EEUU, sólo la National Center for Missing and Exploited Children (NCMEC para abreviar) tiene derecho a tener esas imágenes, precisamente para poder trabajar con empresas como Apple, Google, Facebook o Microsoft para garantizar que no se distribuyen. Pero vayamos por partes; Vamos a explicar por qué todo este sistema no implica que nadie en Apple vaya a comprobar tus fotos. No es así. Tus imágenes sólo las puedes ver tú, y nadie en Apple tiene ni siquiera la posibilidad técnica de acceder a las mismas. Es así de sencillo.

Publicidad de Apple sobre privacidad en el Consumer Electronics Show. Lo que ocurre en tu iPhone, se queda en tu iPhone.
Publicidad de Apple sobre privacidad en el Consumer Electronics Show. Lo que ocurre en tu iPhone, se queda en tu iPhone. Fotógrafo: David Paul Morris/Bloomberg via Getty Images, encontrada en Techcrunch.

Lo primero que hay que tener en cuenta, es que en este sistema ningún programa mira lo que tienen tus fotos antes de subir a iCloud. Lo que se hace, es aplicar un número a cada foto. Ese número, es en realidad un código alfanumérico de muchos dígitos, por ejemplo 2803u23fj23f823j0ccj20c230j, aunque suelen ser mucho más largos. Este código lo genera el contenido de la imagen con una fórmula matemática, pero es simplemente un código único para tu imagen. Sólo esa imagen puede generar ese código, y sólo un fichero idéntico, generará el mismo código. Todas las demás imágenes tendrían un código diferente. Técnicamente, se llama hash.

En la NCMEC, tienen los códigos de estas imágenes, y los comparten con Apple. Cuando cada iPhone comprueba las imágenes de su carrete tras actualizar a iOS 15, mirará si ese código o hash coincide con los de la NCMEC. Si coincide, quiere decir que una de esas imágenes es la misma que tienen de abusos a menores. Si el usuario tiene muchas imágenes que concuerdan, saltará la alarma. En realidad, es un sistema mucho más complejo porque no hace falta que sea el mismo código, exactamente. Un sistema de inteligencia artificial puede asociar varios códigos diferentes porque a veces la misma imagen puede estar guardada con pequeñas variaciones de resolución, color, etc y ser la misma imagen, pero ser también un fichero diferente. En cualquier caso, y para abreviar esta explicación, vamos a dejar el asunto en el que es el mismo código.
Apple no verá tus datos y la privacidad diferencial

Sólo cuando varias imágenes, y ni Apple ni la NCMEC especifican cuántas, dan positivo en esta comparación de hashes, sólo en ese momento, el sistema de cifrado de iCloud se desactiva para esos ficheros concretos, y una alarma en Apple salta para que una persona dedicada a esto, compruebe si las imágenes son efectivamente de abusos a menores, o no. Si lo son, es cuando Apple se pondría en contacto con la policía. Dicho de otra manera, nadie, ni siquiera una única persona en todo el mundo, será acusada de posesión de imágenes de abusos a menores sin que sea realmente cierto. No va a hacer ni un sólo falso positivo. El resto de imágenes que no han tenido un hash que coincida con los de la base de datos de la NCMEC, continuarán estando cifradas y no podrán ser vistas por nadie, ni siquiera por Apple. Todo este proceso se realiza siempre localmente, en el iPhone, que se limita a comparar hashes, sin ver nada dentro de las imágenes, sin ejecutar ningún proceso de reconocimiento de imágenes. Después, las imágenes se suben a la copia de seguridad de iCloud, y ahí, y sólo esas imágenes marcadas, son las que alguien en Apple se dispondrá a comprobar. Si no tienes activada la copia de seguridad de fotos de tu carrete en iCloud, este proceso nunca tiene lugar.

Es importante no confundir este sistema con el de identificación de desnudos en imágenes enviadas o recibidas con la App de Mensajes vía SMS, MMS o iCloud. Ahí, sí que hay un sistema de reconocimiento de imágenes para determinar si hay que mostrar, o no, ese mensaje a las cuentas que sean de menores de edad. Hasta los 12 años, si se visualizan esas imágenes después de cerrar el aviso, se enviará una notificación a los padres (y nunca a Apple, sino sólo a los padres), que serán los que decidirán si tener una conversación con su hijo o hija. Esto también se indica. Por encima de los 12 años, el aviso sale en pantalla pero nunca se envía una notificación de los padres. En este sistema, no hay un código asignado a cada imagen, sino que hay un sistema de reconocimiento de imagen real, que busca patrones de cuerpos desnudos o partes de los mismos.

Así, como puedes comprobar, todas estas medidas están dirigidas a encontrar personas que lamentablemente reciben y transmiten imágenes de abusos y que hay que encontrar, y parar, cueste lo que cueste. En Apple lo tienen muy claro. Nadie mira qué tienen tus fotos. Nadie las analiza, ni se envía ninguna información de las mismas a ningún lado. Todo permanece cifrado (siempre y cuando tengas la autenficación de doble factor activada en tu cuenta de Apple), y la posibilidad de que alguien mire o tus fotos de tu hijo en la bañera den positivo, simplemente no existen; Primero, porque la NCMEC no tiene esas fotos, y el sistema sólo compara códigos de fotos que tienes tú con las que tienen ellos (nunca con las fotos reales), y segundo, porque incluso si por la razón que fuera esas imágenes dieran positivo en un caso muy remoto e hipotético (las posibilidades son de 1 entre mil millones de millones según Apple), una persona en Apple vería que no son de ningún abuso, y simplemente nunca te señalarían ni se avisaría a la policía.

Por último, este tipo de controles para poder encontrar a los enfermos mentales que necesitan ver o tener imágenes de este tipo, se llevan haciendo de otras maneras menos respetuosas con la privacidad desde hace muchos años, en cualquier gran empresa tecnológica. Apple es la que llega un poco tarde a esta fiesta, pero como suele ocurrir cuando pasan cosas así, lo ha hecho con más respeto por la privacidad del usuario que ninguna otra empresa antes.

Newsletter