Apple es sinónimo de privacidad. Es una de las virtudes de la empresa. Todo el que posee un iPhone o cualquier otro dispositivo de Apple sabe que la empresa no juega con sus datos ni invade nuestra esfera personas. Pero hay determinados momentos o situaciones en que está justificada esa invasión de la empresa. La defensa de la infancia es una de esas situaciones que bien vale un detrimento de la privacidad.
Nuevas funciones de seguridad infantil
Las nuevas características de seguridad infantil llegarán a las plataformas de Apple mediante actualizaciones de software a finales de este año. La compañía dijo que las características estarán disponibles en los Estados Unidos en el momento del lanzamiento. Se expandirán a otras regiones con el tiempo.
La aplicación Mensajes en el iPhone, iPad y Mac obtendrá una nueva función de seguridad de la comunicación para advertir a los niños y sus padres cuando reciban o envíen fotos sexualmente explícitas.
Apple dijo que la aplicación Mensajes usará el aprendizaje automático en el dispositivo para analizar los archivos adjuntos de imágenes. Si se determina que una foto es sexualmente explícita, la foto se desenfocará automáticamente y se advertirá al niño.
Es una intromisión en la esfera privada del usuario. Es decir se sopesa si la privacidad es más importante que la seguridad infantil y desde luego, pierde la primera. Yo estoy totalmente de acuerdo. Prefiero proteger a los niños, al futuro, en detrimento de un poco más de seguimiento por parte de la empresa.
Apple manifiesta que la nueva función de seguridad llegará en actualizaciones para iOS 15, iPadOS 15 y macOS Monterey a finales de este año para las cuentas configuradas como familias en iCloud.
Ahora bien, Apple aseguró que las conversaciones de iMessage permanecerán protegidas con cifrado de extremo a extremo. Esto hace que las comunicaciones privadas sean ilegibles para Apple. ¿Entonces cómo lo hace?. Da igual que Apple no lo lea, es una intromisión y Apple aunque no lo diga sabe lo que ve y de quién lo ve.
En lugar de escanear imágenes en la nube, Apple dijo que el sistema realizará la coincidencia en el dispositivo con una base de datos de hashes de imágenes proporcionados por organizaciones de seguridad infantil.
Si existe una sospecha de infracción, Apple revisa manualmente cada informe. Su finalidad es la de confirmar que hay una coincidencia En ese caso, deshabilita la cuenta de iCloud del usuario y envía un informe al organismo pertinente.
Estas nuevas funciones mantienen la privacidad pero la intromisión existe
Para que Apple pueda ejercer estas funciones de manera efectiva, debe haber intromisión sin duda alguna. La pregunta que nos surge es si merece la pena. Desde luego para mi sí. Me siento más seguro sabiendo que existe un medio para evitar que personas compartan imágenes sensibles de niños.
Merece la pena sin duda. En este punto, me surge otra duda ¿Dónde está el límite?. Quiero decir que si hacemos esto con imágenes de niños porque no hacerlo también con imágenes de asesinatos o de terrorismo. Con videos lanzados reivindicando un hecho delictivo.
La diferencia estriba en que los niños son personas que no saben qué es lo que están sufriendo. Quiero decir, que las imágenes de niños en condiciones sexuales siempre, digo siempre, se habrán hecho sin el consentimiento de ese menor. Y eso es lo que se protege.
Cuando se habla de los asesinatos, terrorismos, hablamos de mayores de edad que pueden asumir sus consecuencias y saben que si lanzan esos mensajes es porque quieren darse a conocer o porque quieren que se les detecte. Tarde o temprano, pero buscan notoriedad.
Un menor no. Se le está destrozando la vida a través de esos mayores. Por eso es importante abordar, entrometerse en la privacidad aunque Apple asegure que no se desvela ningún dato de esa persona. Me alegra saberlo, pero al final Apple sabe quién y qué ha mandado y cuándo. Y lo más importante lo pone en conocimiento de las autoridades y eso es el mayor valor que existe.