Privacidad o seguridad, ¿dónde termina un derecho y empieza el otro? Casi 30 años de Internet no han hecho más que profundizar un antiquísimo dilema que afecta tanto las bases de toda democracia como la dignidad de sus individuos.
En nombre de la seguridad, se han vulnerado (voluntaria e involuntariamente) los derechos y garantías de millones de personas inocentes. Pero, en ejercicio de la privacidad, se han organizado y perpetrado los delitos más atroces. ¿Cómo encontrar entonces el equilibrio entre intereses tan opuestos?
Apple le ha puesto un límite a la privacidad: los niños. Escaneará iCloud en busca de abuso sexual infantil…
Con las gravísimas revelaciones de WikiLeaks y Edward Snowden, y la explosión de diversos escándalos como el de Cambridge Analytica, la sociedad mundial corroboró al fin la (sospechada e infinitamente negada) cooperación de las principales compañías tecnológicas con los sistemas de espionaje y perfilamiento más sofisticados.
Y con ello se le puso fin a la extensa luna de miel de los internautas con Google, Facebook y Apple, entre otras, inclinando la balanza (desde lo discursivo) en favor de la intimidad de las personas.
Apple ha sido tal vez la única que ha capitalizado este profundo cambio de paradigma, ha logrado “vendernos” a la privacidad como un servicio diferencial. A tal punto es así que ha tomado, en diversas ocasiones, una dura postura ante las solicitudes de “puertas traseras” del FBI. De hecho, el mismísimo Tim Cook se ha manifestado en contra de “los que hacen negocios con los datos de los usuarios”.
Pero, ¿puede Apple desentenderse ante actitudes manifiestamente ilegales de los usuarios? Noticias falsas, narcotráfico, piratería y pornografía infantil. Teniendo en sus manos la capacidad de detener la divulgación de contenidos ilícitos, ¿debe afectar la intimidad y la libertad de expresión de un particular?
La tecnología que podría estar utilizando Apple es un sistema llamado “PhotoDNA”, que compara cada una de las fotos con una base de imágenes previamente identificadas…
No hablamos de cuestiones más controversiales, como la aplicación del derecho al olvido por parte de Google, sino de situaciones palmarias, que a la vista de cualquier persona son ilegales, como las imágenes de abuso sexual infantil.
Y es en este sentido que, a través de un comunicado, Apple se puso un límite: los niños. “Como parte de este compromiso, Apple utiliza tecnología de coincidencia de imágenes para ayudar a encontrar e informar sobre la explotación infantil. Al igual que los filtros de correo no deseado en el correo electrónico, nuestros sistemas utilizan firmas electrónicas para detectar sospechas de explotación infantil. Validamos cada coincidencia con una revisión individual. Las cuentas con contenido de explotación infantil violan nuestros términos y condiciones de servicio, y cualquier cuenta que encontremos con este material será deshabilitada” (traducido del inglés), advierte.
Esta semana, el medio The Telegraph (Reino Unido) se hizo eco de lo manifestado recientemente por la Directora de Privacidad de Apple, Jane Horvath, en el Consumer Electronics Show (CES) de Las Vegas: “Estamos utilizando algunas tecnologías para ayudar a detectar material de abuso sexual infantil” (traducido del inglés).
Según el diario, la tecnología que podría estar utilizando Apple es un sistema llamado “PhotoDNA”, que compara cada una de las fotos con una base de imágenes previamente identificadas.
Privacidad o seguridad, ¿dónde termina un derecho y empieza el otro?
De todas maneras, la misma DPO defendió la postura de los de Cupertino en cuanto al cifrado de los dispositivos: “(eliminarlo) no es la forma en que estamos resolviendo estos problemas… El cifrado de extremo a extremo es de vital importancia para los servicios en los que confiamos”, dijo.
¿Es suficiente? No lo sabemos, lo que sí sabemos es que todo el que pueda evitarle un daño a alguien, debe evitarlo, y más aún si este alguien es un niño.