Ya hemos hablado de la nueva funcionalidad de Apple que entrará en vigor el próximo otoño al menos en los EEUU. Nos referimos a la detección CSAM de protección de la infancia. Se quiere evitar la distribución y realización de imágenes que atentes contra la libertad sexual de los menores de edad. Para evitar usos indebidos como los del AirTag, Apple no explica las medidas que ha impulsado.
Para evitar usos indebidos de la función CSAM todo se basa en la codificación hash
La función CSAM de Apple que implantará en otoño en los EEUU al menos de momento, se trata de evitar la distribución y realización de imágenes que atenten contra la libertad sexual de los menores de edad. Se trata de protegerlos mediante inteligencia artificial. Para ello y de forma automática se analizarán las imágenes de los usuarios para detectar imágenes que puedan ser constitutivas de saltarse los protocolos estandarizados.
Esos protocolos se establecen mediante una base de datos ya aprobada de antemano. Es por ello que la forma de trabajar de este sistema ideado por Apple es mas que nada comparar esas imágenes con las existentes en esa base. Si existe coincidencia saltarán las alarmas.
Pero para que no hay usos no autorizados, se deben extremar las medidas pero no lo suficiente como para que no se encuentren coincidencias. Para ello todo se basa en el hash. Apple explica que publicará un artículo de Knowledge Base con el hash raíz de la base de datos hash CSAM cifrada. Apple también permitirá a los usuarios inspeccionar la base de datos hash raíz en su dispositivo y compararla con la base de datos en el artículo de Knowledge Base.
Este enfoque permite auditorías técnicas de terceros: un auditor puede confirmar que para cualquier hash raíz determinado de la base de datos CSAM cifrada en el artículo de Knowledge Base o en un dispositivo. La base de datos se generó solo a partir de una intersección de hashes de organizaciones de seguridad infantil participantes, sin adiciones, eliminaciones o cambios. Facilitar la auditoría no requiere que la organización de seguridad infantil proporcione ninguna información confidencial, como hashes sin procesar o las imágenes de origen utilizadas para generar los hashes, sino que solo deben proporcionar una certificación no confidencial de la base de datos completa que enviaron a Apple. Luego, en un entorno seguro en el campus, Apple puede proporcionar pruebas técnicas al auditor de que la intersección y el cegamiento se realizaron correctamente. Una organización de seguridad infantil participante también puede decidir realizar la auditoría.