CSAM

Una coalición internacional de más de 90 grupos de políticas y derechos está instando a Apple a abandonar sus planes de escanear fotos de usuarios en busca de material de abuso infantil (CSAM).

Más de 90 organizaciones presionan a Apple sobre el proyecto de escaneo de fotos

En una carta abierta dirigida al CEO de Apple, Tim Cook, publicada el jueves, la coalición dijo que le preocupa que la función “se utilice para censurar el discurso protegido, amenazar la privacidad y seguridad de las personas en todo el mundo y tener consecuencias desastrosas para los niños”. 

Apple se ha enfrentado a una reacción violentamente abrumadora contra sus nuevas y controvertidas funciones de seguridad infantil, que advertirán a los niños cuando intenten ver imágenes de desnudos en la aplicación de Mensajes y buscar CSAM en Fotos de iCloud.

Un número creciente de usuarios y defensores de la privacidad han expresado sus preocupaciones sobre las funciones, y algunos han amenazado con deshacerse por completo de los dispositivos de Cupertino. Los propios empleados de Apple también se han sumado a esta manifestación.

Ahora, Apple enfrenta la mayor campaña contra esta medida.

Grupos de derechos se unen a la lucha contra el escaneo de fotografías

La carta no solo pide a Cook y Apple que eliminen sus nuevas funciones de seguridad infantil, programadas para implementarse a finales de este año, sino que también señala por qué las funciones ponen en riesgo a los niños y otros usuarios, “tanto ahora como en el futuro”.

Como otros, el grupo advierte sobre posibles trampas de censura y vigilancia. También destaca una serie de riesgos para la seguridad infantil que cree que Apple pudo haber pasado por alto al asumir que todos los niños están protegidos por sus padres.

“Las organizaciones abajo firmantes comprometidas con los derechos civiles, los derechos humanos y los derechos digitales en todo el mundo están escribiendo para instar a la empresa a que abandone los planes que anunció el 5 de agosto de 2021 para desarrollar capacidades de vigilancia en iPhones, iPads y otros productos de Apple”, dice la carta.

“Aunque estas capacidades están destinadas a proteger a los niños y reducir la propagación de material de abuso sexual infantil (MASI), nos preocupa que se utilicen para censurar el discurso protegido, amenazar la privacidad y la seguridad de las personas en todo el mundo y tener consecuencias desastrosas para muchos niños”.

¿Una amenaza para la seguridad infantil?

“Los algoritmos diseñados para detectar material sexualmente explícito son notoriamente poco fiables”, explica la coalición. “Son propensos a marcar por error el arte, la información de salud, los recursos educativos, los mensajes de defensa y otras imágenes. Los derechos de los niños a enviar y recibir dicha información están protegidos en la Convención de las Naciones Unidas sobre los Derechos del Niño”.

“Además, el sistema que Apple ha desarrollado asume que las cuentas de “padre e hijo” involucradas, en realidad pertenecen a un adulto que es el padre de un niño, y que esas personas tienen una relación sana. Puede que este no sea siempre el caso; un adulto abusivo puede ser el organizador de la cuenta, y las consecuencias de la notificación a los padres podrían amenazar la seguridad y el bienestar del niño”.

Las características significan que iMessage ya no brindará confidencialidad y privacidad a los usuarios que lo necesiten, dice la carta. También advierte que una vez que se incorpore la “función de puerta trasera”, los gobiernos podrían obligar a Apple a “detectar imágenes que sean objetables por razones distintas a las de ser sexualmente explícitas”.

Una ‘base para la censura, la vigilancia y la persecución’

Al escanear las fotos de los usuarios subidas a iCloud, el grupo dice que se opone firmemente a la proliferación de CSAM, pero advierte que el plan de Apple sienta “las bases para la censura, la vigilancia y la persecución a nivel mundial”.

Apple “enfrentará una enorme presión, y potencialmente requisitos legales, de gobiernos de todo el mundo para escanear fotos no solo para CSAM, sino también para otras imágenes que un gobierno considere objetables”, dice.

“Esas imágenes pueden ser de abusos a los derechos humanos, protestas políticas, imágenes que las empresas han etiquetado como ‘terroristas’ o contenido extremista violento, o incluso imágenes poco amables de los mismos políticos que ocasionará una presión a la empresa para que las busque”.

La carta termina con un pedido a Apple para que elimine sus nuevas características de seguridad infantil y reafirme su compromiso de proteger la privacidad del usuario. También insta a la empresa a consultar con los grupos de la sociedad civil y con las comunidades vulnerables “que pueden verse afectadas de manera desproporcionada” por tales medidas.

Puedes leer la carta completa, junto con la lista de los firmantes, en el sitio web del Centro para la Democracia y la Tecnología.

 

Quieres comprar un iPhone, iPad, MacBook o cualquier dispositivo tecnológico al mejor precio, en este canal se publican las mejores ganas y ofertas.