CSAM es el acrónimo en inglés de Child Sexual Abuse Material, un problema creciente en smartphones modernos ahora que tienen la capacidad de almacenar cientos de miles de imágenes o vídeos fácilmente.
Apple trabaja en un sistema de este tipo que permite identificar esas imágenes ilegales de manera matemática, sin requerir que nadie vea o compruebe esas fotos, preservando así la privacidad de todos los usuarios.
Estos son los artículos en donde hablamos de CSAM.