Industria y Utilities | Noticias | 25 OCT 2018

Machine learning al servicio de la protección de menores

Facebook emplea tecnología IA para detectar y eliminar más de 8,7 millones de desnudos infantiles en la plataforma.
facebook
Redacción

Nuevas medidas de Facebook para evitar la difusión de contenidos inadecuados a través de la plataforma. La red social ha hecho público este miércoles el empleo de un nuevo software, basado en aprendizaje automático, para eliminar imágenes en las que aparezcan desnudos infantiles o menores en situaciones sexualizadas. En total, en el último trimestre ha suspendido 8,7 millones de fotografías. 

Esta nueva herramienta identifica imágenes en las que detecte que aparecen menores y personas desnudas, en lo que se podría entender como entornos sexualizados, para su posterior revisión. Su uso ha servido para reforzar los esfuerzos de la plataforma en el veto a imágenes que vulneren la protección de menores. Aunque su empleo se ha hecho público ahora, el software se ha ido desarrollando a lo largo del último año. 

Hasta la llegada de esta herramienta, la red social basaba la eliminación de este tipo de contenidos en dos parámetros: la acción de otros usuarios al denunciar imágenes o los filtros de desnudos para adultos. Estas normas no siempre han marcado una frontera fácil de delimitar, llevando a situaciones como la eliminación de fotos familiares en las que salían menores en entornos seguros pero con prendas ligeras. El nuevo programa se ha basado para el establecimiento de los parámetros de detección en estas bases de datos, tanto de las imágenes de desnudos en adultos como de estas últimas de menores vestidos. Distingue además entre imágenes de relevancia artística o histórica. 

Además, la compañía ha desvelado también un sistema para detectar a usuarios susceptibles de estar realizando acciones de grooming, encaminadas a establecer vínculos de amistad con menores en la red con la finalidad última de su explotación sexual. Este evalúa otros factores, como la cantidad de bloqueos que ha recibido una cuenta por parte de otros usuarios y si ese mismo perfil ha contactado con menores en reiteradas ocasiones. Facebook también cuenta con un sistema de bloqueo de pornografía infantil con informe a las autoridades competentes. 

En declaraciones a la agencia Reuters, la jefa de seguridad global de Facebook, Antigone Davis, ha explicado que estas herramientas les ayudan a priorizar contenidos, ganando en eficiencia a la hora de gestionar el contenido problemático que les llega al equipo encargado de su revisión. Este tipo de herramientas no son exactas, una experiencia a la que Davis también ha aludido al hablar de los posibles errores que el software pudiera cometer clasificando imágenes como sospechosas sin serlo. La responsable de seguridad ha aclarado que los usuarios podrían apelar, y que prefieren "errar por el lado de la precaución con los niños". Anunciantes y agencias de noticias han protestado en distintas ocasiones por los sistemas de la red social de selección de contenidos inadecuados, que pueden bloquear de forma automática publicaciones correctas. 

La compañía estudia ahora aplicar esta tecnología a Instagram.



Comentar
Para comentar, es necesario iniciar sesión
Se muestran 0 comentarios