El Departamento de Seguridad Nacional ya ha abierto una nueva investigación sobre CSAM en TikTok (CSAM son las siglas en inglés para Material Sobre Abuso Sexual Infantil). Esto luego de que se haya publicado material de abuso sexual infantil, tanto en público como en privado en la red de intercambio de vídeos.

Además, la plataforma ha sido demasiado utilizada por los abusadores para el llamado grooming. Esta palabra es utilizada para una práctica determinada sobre hacerse amigo de un niño en línea con la intención de abusar de él más tarde. Esto puede ser tanto en línea como fuera de ella.

¿TikTok en problemas?

 iOSMac TikTok investigada por pornografía infantil

El Financial Times informa de que los moderadores de TikTok han sido incapaces hasta el momento de seguir el ritmo del volumen de vídeos publicados. Esto pasaría a significar que el material abusivo ya se ha publicado en el feed publico de algún perfil.

Ahora también los abusadores se han aprovechado de una función de privacidad que está ofreciendo actualmente TikTok:

El Departamento de Seguridad Nacional de Estados Unidos ya está investigando cómo TikTok maneja el material de abuso sexual infantil. De acuerdo a dos fuentes familiarizadas con el caso. El Departamento de Justicia también revisa por el momento, cómo una característica especifica de privacidad en TikTok está siendo explotada por los depredadores. Una persona con conocimiento del caso menciona esto.

Un patrón que el Financial Times verificó con las fuerzas del orden y los grupos de seguridad infantil era el contenido que se obtenía y comercializaba a través de cuentas privadas. Las mismas que compartían la contraseña con las victimas y otros depredadores sexuales. Las palabras clave se utilizan comúnmente en los videos públicos, los nombres de usuario y las biografías. Sin embargo, el contenido ilegal se sube utilizando la función ‘Sólo yo’ de la app, en la que los vídeos sólo son visibles para los que han iniciado sesión en el perfil.

Seara Adair, una defensora de la seguridad de los niños, denunció esta tendencia a las fuerzas de seguridad de Estados Unidos después de haber detectado el contenido en TikTok.

Las deficiencias de privacidad

 iOSMac TikTok investigada por pornografía infantil

También se acusa a TikTok de no ser tan proactiva como otras redes sociales. Pues otras son más efectivas a la hora de detectar y prevenir este tipo de intentos de grooming:

‘Es un lugar perfecto para que los depredadores conozcan, acierten y enganchen a los niños’, dijo Erin Burke, jefa de la unidad de investigaciones de explotación infantil de la división de ciberdelincuencia de Seguridad Nacional. Además calificó la app como una ‘plataforma de elección’ para este comportamiento […]

Burke afirmó que empresas internacionales como TikTok estaban menos motivadas a la hora de colaborar con las fuerzas del orden estadounidenses. ‘Queremos que [las empresas de medios sociales] aseguren de forma proactiva la seguridad de los niños. No puedo decir que lo estén haciendo, y si puedo decir que muchas empresas estadounidenses lo están haciendo, añadió.

El uso de la plataforma por parte de los depredadores sexuales es especialmente preocupante. Puesto que el grupo demográfico predominante es el de los adolescentes.

TikTok dijo que sí colaboró con las fuerzas del orden “cuando fue necesario”:

‘TikTok tiene tolerancia cero para el material de abuso sexual infantil’, dijo la compañía. ‘Cuando encontramos cualquier intento de publicar, obtener o distribuir [material de abuso sexual infantil], eliminamos el contenido, prohibimos las cuentas y los dispositivos. También informamos inmediatamente al NCMEC y colaboramos con las fuerzas del orden según sea necesario.’

Quieres comprar un iPhone, iPad, MacBook o cualquier dispositivo tecnológico al mejor precio, en este canal se publican las mejores ganas y ofertas.