Ariel Costas's Personal Website

Apple escaneará los dispositivos buscando abuso sexual a menores

Por Ariel Costas - 12 de agosto de 2021

Apple anunció recientemente cambios en sus iThings para incluir “protección a los niños” en iElOrdenadorDeOtro (también conocido como iCloud) e iMessage. Compararán cada foto subida a iCloud con una base de datos de CSAM (Material de abuso sexual infantil, en inglés Child Sexual Abuse Material). También escanearán todas las imágenes de iMessage enviadas o recibidas por cuentas de menores en busca de material sexualmente explícito y notificará a los padres.

Si bien la intención no es mala, esta es solo una forma de abrir la puerta (trasera) para una nueva forma de vigilancia de Apple y los gobiernos. Hoy es solo CSAM, pero mañana puede ser cualquier cosa. Si Apple realmente se preocupa por la privacidad, como tanto dicen, no deberían implementar esto bajo ningún concepto.

Más información (en inglés) en https://www.eff.org/deeplinks/2021/08/apples-plan-think-different-about-encryption-opens-backdoor-your-private-life