Investigadores de The Wall Street Journal, la Universidad de Stanford y Universidad de Massachusetts Amherst detectaron que el algoritmo de la red social Instagram conecta a comunidades de pedofilia.
Mediante un análisis profundo, los investigadores indican que la plataforma conecta a los pedófilos con los vendedores de contenido a través de un sistema de recomendación. Asimismo, detallan que este nicho permite a las personas buscar hashtags explícitos que después los conecta con cuentas que usan los términos para promocionar “material de sexo infantil para la venta”.
En este orden de ideas, destacan que, en vez de publicar abiertamente material ilícito, las cuentas de la red de Meta ofrecen dicho contenido a menudo publican “menús” que invitan a los compradores a encargar actos específicos, incluidos videos de niños que se lastiman a sí mismos, entre otros tipos de material.
Seguidamente, señalan que los compradores y vendedores de contenido sexual para menores de edad fomentan las publicaciones de contenido infantil sexualizado en Instagram. Además, que otras cuentas de Instagram recopilan memes a favor de la pedofilia o hablan sobre su acceso a los niños.
Meta pretende elevar la seguridad
Ante esta grave situación, personal de Meta aseguraron que están trabajando para mejorar los sistemas de seguridad en sus plataformas, para acabar con esta plaga de personas.
En este sentido, señaló que han desmantelado 27 redes de pedófilos en los últimos dos años. Pero sobre todo está contrarrestando que sus sistemas recomienden que las cuentas potencialmente pedófilas se conecten o interactúen con el contenido de los demás.
Adicionalmente, la investigación reveló que, en enero, Meta eliminó 490 mil cuentas por violar sus políticas de seguridad infantil.
Con información de Nota de Prensa