Inicio Etiquetas CSAM

CSAM

CSAM es el acrónimo en inglés de Child Sexual Abuse Material, un problema creciente en smartphones modernos ahora que tienen la capacidad de almacenar cientos de miles de imágenes o vídeos fácilmente.

Privacidad

Apple trabaja en un sistema de este tipo que permite identificar esas imágenes ilegales de manera matemática, sin requerir que nadie vea o compruebe esas fotos, preservando así la privacidad de todos los usuarios.

Estos son los artículos en donde hablamos de CSAM.

Acusan a Apple de permitir imágenes de abusos infantiles en iCloud

Una nueva campaña publicitaria critica a Apple por haber abandonado su sistema CSAM de detección automática de imágenes de abusos infantiles

En agosto del año 2021 Apple anunció un nuevo sistema automático y totalmente privado que comprobaría el contenido de ciertas imágenes de abuso infantil para reportarlas si encontraba un elevado número de coincidencias de las mismas en la misma cuenta de Apple, a través...
Bandera de la Unión Europea

El gobierno de España quiere prohibir el cifrado de punta a punta según un documento de la Unión Europea que se ha filtrado

No es agradable ver a España destacar en medios de comunicación extranjeros por algo así. Un documento filtrado que firman los 20 países de la Unión Europea muestra las posiciones de cada país en torno al problema del CSAM, es decir, la detección automática...
Detección automática de imágenes ilegales de abusos a menores en el iPhone

Apple cancela definitivamente sus planes de escanear las fotos de los usuarios en búsqueda de abusos infantiles (CSAM)

Apple ha decidido cancelar definitivamente los planes que tenía para escanear las fotos subidas a iCloud con un sistema semi-automático en búsqueda de imágenes catalogadas oficialmente como abuso infantil (CSAM). La razón de la cancelación es la gran controversia que levantó en el momento...
La privacidad importa, en un anuncio del iPhone

La Unión Europea podría obligar a Apple a implementar el sistema automático de comprobación de imágenes de abusos a menores que decidió retrasar antes

La Unión Europea va a obligar a Apple o Google a implementar un sistema de detección automática de imágenes o vídeos de abusos a menores en sus smartphones. Es, básicamente, lo que Apple intentó implementar antes pero que tuvo que cancelar ante la alerta...
Detección automática de imágenes ilegales de abusos a menores en el iPhone

Todas las menciones a la función de rastreo de imágenes de abusos infantiles han sido retiradas de la web de Apple

Hace unas cuantas semanas, os contamos cómo Apple tuvo que dar marcha atrás con una nueva funcionalidad de rastreo de imágenes de abusos infantiles, un sistema conocido en inglés por las siglas CSAM que permite, mediante cálculos matemáticos, encontrar fotografías de este tipo de...
Facebook y la privacidad de los usuarios

Apple decide retrasar el nuevo sistema se detección de imágenes de abusos a menores

Hace unas semanas os contamos acerca del nuevo sistema de detección de imágenes de abusos a menores que Apple quiere implementar en todas las imágenes que, estando en un iPhone o iPad, se suban a la nube de iCloud. Este sistema es muy incomprendido y...
La privacidad importa, en un anuncio del iPhone

Apple anuncia el sistema de reconocimiento automático de imágenes de abusos a menores

Tal y como se rumoreaba unas horas antes, Apple ha publicado una página en su web en la que da a conocer que en el futuro cercano, todas las nuestras fotos serán comprobadas en búsqueda de ciertas imágenes, ya conocidas, de abusos a menores. Ahora,...

Artículos recientes

Evento Let Loose de Apple

Apple anuncia un evento de presentación de nuevos productos: Let Loose

Pensábamos que el próximo evento de Apple sería el próximo 10 de julio, pero nos equivocábamos. Apple ha convocado a la prensa especializada ya los influencers para el día 7 de mayo. En este evento que han titulado Let Loose (algo así como déjalo suelto) esperamos ver...

Publicidad

Tutoriales