La mayor red social del mundo, Facebook, publicó este martes su primer informe trimestral de cumplimiento de normas comunitarias, que cubre seis áreas: violencia gráfica, desnudez de adultos y actividad sexual, propaganda terrorista, incitación al odio, ‘spam’ y cuentas falsas.
De acuerdo con el documento, Facebook ha tomado medidas de moderación contra casi 1.500 millones de cuentas y publicaciones que violaron los estándares de su comunidad en los primeros tres meses de este año, incluyendo a 21 millones de piezas con desnudez de adultos y actividad sexual, retiradas de la red social.
La compañía calculó que por cada 10.000 piezas de contenido vistas en Facebook en general, entre siete y nueve de ellas violaron sus estándares de desnudez y pornografía para adultos. La tecnología interna de Facebook identificó los desnudos de los adultos o el contenido sexual alrededor del 96 % del tiempo antes de que los usuarios lo informaran, según el informe.
583 millones de cuentas falsas
Sin embargo, la abrumadora mayoría de las medidas de moderación se centró en el ‘spam’ y las cuentas falsas que lo promocionan. En el primer trimestre de 2018, Facebook inhabilitó alrededor de 583 millones de cuentas falsas y eliminó 837 millones de correos no deseados, según el informe.
Además, Facebook eliminó o agregó etiquetas de advertencia a alrededor de 3,5 millones de piezas de contenido de violencia gráfica, moderó 2,5 millones de mensajes de odio, 1,9 millones de propaganda terrorista y 3,4 millones con violencia gráfica.
Asimismo, la empresa reconoció que tiene mucho trabajo por hacer cuando se trata de eliminar correctamente mensajes con incitación al odio. De los 2,5 millones de mensajes de odio moderados en el periodo mencionado, solo el 38 % fueron identificados por sus algoritmos. “Para discursos de odio, nuestra tecnología aún no funciona tan bien, por lo que debe ser revisada por nuestros equipos de revisión”, admitió Guy Rosen, vicepresidente de gestión de productos de Facebook.
De acuerdo con el documento, Facebook ha tomado medidas de moderación contra casi 1.500 millones de cuentas y publicaciones que violaron los estándares de su comunidad en los primeros tres meses de este año, incluyendo a 21 millones de piezas con desnudez de adultos y actividad sexual, retiradas de la red social.
La compañía calculó que por cada 10.000 piezas de contenido vistas en Facebook en general, entre siete y nueve de ellas violaron sus estándares de desnudez y pornografía para adultos. La tecnología interna de Facebook identificó los desnudos de los adultos o el contenido sexual alrededor del 96 % del tiempo antes de que los usuarios lo informaran, según el informe.
583 millones de cuentas falsas
Sin embargo, la abrumadora mayoría de las medidas de moderación se centró en el ‘spam’ y las cuentas falsas que lo promocionan. En el primer trimestre de 2018, Facebook inhabilitó alrededor de 583 millones de cuentas falsas y eliminó 837 millones de correos no deseados, según el informe.
Además, Facebook eliminó o agregó etiquetas de advertencia a alrededor de 3,5 millones de piezas de contenido de violencia gráfica, moderó 2,5 millones de mensajes de odio, 1,9 millones de propaganda terrorista y 3,4 millones con violencia gráfica.
Asimismo, la empresa reconoció que tiene mucho trabajo por hacer cuando se trata de eliminar correctamente mensajes con incitación al odio. De los 2,5 millones de mensajes de odio moderados en el periodo mencionado, solo el 38 % fueron identificados por sus algoritmos. “Para discursos de odio, nuestra tecnología aún no funciona tan bien, por lo que debe ser revisada por nuestros equipos de revisión”, admitió Guy Rosen, vicepresidente de gestión de productos de Facebook.
No hay comentarios.:
Publicar un comentario