Detección de CSAM y nuevas protecciones en iPhone

En día de hoy, Apple ha anunciado un trío de nuevos esfuerzos con los que propone traer protección enfocada para los niños en algunos de los dispositivos de la marca de la manzana, entre estos destaca la detección de CSAM y te lo contamos a continuación.

 iOSMac Detección de CSAM y nuevas protecciones en iPhone  De esta manera, Apple incluye nuevas funciones de seguridad de las comunicaciones en Mensajes entre las que destacan la detección mejorada del contenido del Material de Abuso Sexual Infantil (CSAM) en iCloud e información de conocimiento actualizada para potenciar Siri y por supuesto la función de Buscar.

Así, Apple está enfatizando que su nuevo programa es ambicioso, pero que “proteger a los niños es una responsabilidad importante”. Poniendo esto a primer orden, Apple comenta que sus esfuerzos “evolucionarán y se expandirán con el tiempo”.

El primer anuncio hace mención a la nueva característica de seguridad de la comunicación en la aplicación Mensajes para la cual Apple explica que cuando un niño que está en una configuración Familiar, cuando recibe o intenta enviar fotos sexualmente explícitas, iCloud detectará esto y el niño verá un mensaje de advertencia.

Además, cuando un niño recibe una imagen sexualmente explícita, el dispositivo reconocerá el contenido de la imagen y esta se desdibujará, de tal manera que la aplicación Mensajes mostrará una advertencia diciendo que la imagen “puede ser sensible”.

Por su parte, si el niño toca “Ver foto”, aparecerá un mensaje emergente informándole por qué la imagen se considera sensible explicando que, si el niño decide ver la imagen, su padre o el principal de iCloud Family recibirá una notificación “para asegurarse de que está bien”. La ventana emergente también incluirá un enlace rápido para recibir ayuda adicional.

Por su parte, si un niño intenta enviar una imagen que es sexualmente explícita, aparecerá una advertencia similar en la cual Apple indica que el niño será advertido antes de que se envíe la foto y que los padres pueden recibir un mensaje si el niño decide enviarlo, esta función al igual que la anterior esta prevista para niños menores de 13 años.

Adicionalmente, Apple explica que la aplicación Mensajes utiliza el aprendizaje automático del dispositivo para analizar los archivos adjuntos de la imagen y de esta manera determinar si una foto es sexualmente explícita.

Cabe mencionar que en la función de iMessage se mantendrá el cifrado de extremo a extremo haciendo que incluso Apple no obtenga acceso a ninguno de los mensajes. La función también será opt-in.

Finalmente hay que mencionar que esta característica llegará “casi a fines de este año a las cuentas configuradas como familias en iCloud” en las actualizaciones de iOS 15, iPadOS 15 y macOS Monterey, recordando que la función estará disponible en los EE. UU. para comenzar.

Apple anuncia nuevas protecciones para la seguridad infantil: Detección de CSAM en iMessage y escaneo de fotos de iCloud

En segundo lugar, se presenta la función Detección de CSAM la cual tal vez es la más notable ya que Apple está anunciando nuevos pasos para combatir la propagación del Material de Abuso Sexual Infantil, o CSAM, de esta manera explica que esa función se refiere al contenido que representa actividades sexualmente explícitas que involucran a un niño.

De acuerdo con la filtración de esta mañana, esta característica permitirá a Apple detectar imágenes CSAM conocidas cuando se almacenen en Fotos de iCloud, de esta forma Apple puede reportar instancias de CSAM al Centro Nacional para Niños Desaparecidos y Explotados, que es una entidad que actúa como una agencia de denuncia integral para CSAM y trabaja en estrecha colaboración con las fuerzas del orden.

Adicionalmente, Apple subraya repetidamente que su método de detección de CSAM está diseñado para considerar la privacidad del usuario, es decir, Apple esencialmente analiza las imágenes en un dispositivo para ver si hay coincidencias contra una base de datos de imágenes conocidas de CSAM proporcionada por el Centro Nacional para Niños Desaparecidos y Explotados.

Así, todo el emparejamiento de estas bases de datos se realiza en el dispositivo, con Apple transformando la base de datos del Centro Nacional para Niños Desaparecidos y Explotados en un “condicho ilegible de hashes que se almacena de forma segura en los dispositivos de los usuarios”.

Apple explica, además, que antes de almacenar una imagen en Fotos de iCloud, se realiza un proceso de coincidencia en el dispositivo para esa imagen contra los datos hashes CSAM conocidos.

El proceso de coincidencia está impulsado por una nueva tecnología criptográfica llamada intersección de conjunto privado, el objetivo de esta tecnología es el de determinar si hay una coincidencia entre bases de datos manteniendo intacta la privacidad del usuario.

Así, la intersección de conjunto privado (PSI) permite al dispositivo de Apple saber si un hash de imagen coincide con los hashes de imagen CSAM conocidos, todo esto sin aprender o almacenar información sobre los hashes de las imagen que no coinciden. PSI también impide que el usuario aprenda si hubo una coincidencia.

Por su parte, si hay una coincidencia en el dispositivo, este creará un vale de seguridad criptográfico que codifica el resultado de la coincidencia, posteriormente, se emplea una tecnología llamada intercambio secreto de umbral, lo cual garantiza que el contenido de los comprobantes de seguridad no pueda ser interpretado por Apple a menos que la cuenta de Fotos de iCloud cruce un umbral de contenido CSAM conocido.

Apple tampoco está revelando el umbral específico que utilizará, es decir, el número de coincidencias CSAM requeridas antes de poder interpretar el contenido de los vales de seguridad. Sin embargo, una vez alcanzado el umbral, Apple revisará manualmente el informe con el fin de confirmar la coincidencia.

Luego como medida de seguridad deshabilitará la cuenta del usuario y enviará un informe al Centro Nacional para Niños Desaparecidos y Explotados. La tecnología de umbral es importante porque significa que las cuentas no están marcadas incorrectamente.

De esta forma, la revisión manual también agrega un paso más de confirmación para evitar errores, además, los usuarios podrán presentar una apelación para que se restablezca su cuenta. Apple también ha comentado que el sistema tiene una baja tasa de error, menos de 1 en 1 billón de cuentas por año.

Cabe mencionar que, aunque todo se hace en el dispositivo, Apple analizará solo las imágenes que se almacenan en Fotos de iCloud, es decir, las imágenes almacenadas completamente de forma local en el dispositivo no están involucradas en este proceso.

Apple dice que el sistema en el dispositivo es importante y más preservar la privacidad que el escaneo basado en la nube, ya que solo informa a los usuarios que tienen imágenes CSAM, en lugar de escanear las fotos de todos constantemente en la nube.

Finalmente, Apple también está haciendo actualizaciones a Siri y Buscar, ampliando la orientación de estas al proporcionar recursos adicionales para ayudar a los niños y padres a mantenerse seguros en línea y obtener ayuda con situaciones inseguras.

Por ejemplo, los usuarios que le pregunten a Siri cómo pueden denunciar CSAM o explotación infantil serán señalados a los recursos sobre dónde y cómo presentar una denuncia.

Adicional a esto, Siri y buscar también se están actualizando para intervenir cuando los usuarios realizan búsquedas de consultas relacionadas con CSAM, estas intervenciones explicarán a los usuarios que el interés en este tema es perjudicial y problemático, y proporcionarán información para obtener ayuda con este problema.

 

 

 

 

 

 

SIN COMENTARIOS

Deja un comentarioCancelar respuesta

Salir de la versión móvil