Últimas 15minutos

En 5 meses Facebook eliminó 4,5 millones de contenidos

Este material eliminado de la plataforma fomentaba el suicidio y la autolesión, incluidas imágenes y representaciones que según la compañía "podrían llevar a otros a comportarse de manera similar"

El informe proporciona datos sobre cuatro áreas de sus políticas: desnudez infantil y explotación sexual infantil y venta ilegal de armas de fuego. (Cortesía Pixabay)

15 minutos. Facebook eliminó de su red social homónima 4,5 millones de contenidos entre abril y septiembre de este año por vulnerar sus políticas al fomentar el suicidio y las autolesiones, mientras que en Instagram se eliminaron 1,68 millones de publicaciones en el mismo periodo.

Estos datos aparecen en la cuarta edición del Informe de aplicación de Normas Comunitarias, que comprende el segundo y el tercer trimestre de 2019 y que Facebook presentó este miércoles. En él, por primera vez la compañía añadió los datos de la red social Instagram, también de su propiedad.

En este informe, Facebook proporciona datos sobre cuatro áreas de sus políticas: desnudez infantil y explotación sexual infantil; bienes regulados -específicamente, venta ilegal de armas de fuego y drogas-; suicidio y autolesiones; y propaganda terrorista.

Medidas de Facebook

En el primer apartado, de suicidio y autolesiones, Facebook tomó medidas sobre aproximadamente 2 millones de piezas de contenido en el segundo trimestre de 2019, de las cuales el 96,1 por ciento fueron detectados de manera proactiva por la compañía. En el tercer trimestre se eliminaron 2,5 millones de piezas de contenido, el 97,1 por ciento detectadas de manera proactiva.

En Instagram, la compañía eliminó aproximadamente 835.000 piezas de contenido en el segundo trimestre de 2019 (77,8 por ciento detectadas), y en el tercer trimestre esta cifra alcanzó las 845.000 piezas (aumentando al 79,1 por ciento la detección).

El contenido que fomenta el suicidio y la autolesión que se eliminó de Facebook e Instagram incluye imágenes y representaciones que según la compañía "podrían llevar a otros a comportarse de manera similar".

El informe recoge también la prevalencia de contenidos sobre suicidio y autolesiones, es decir, la probabilidad de que la gente vea contenidos que violen estas políticas, que en el tercer trimestre fue de cuatro entre 10.000. Estos datos incluyen también la venta ilegal de armas de fuego y drogas.

Asimismo, Facebook compartió también sus datos de detección y eliminación de propaganda de grupos terroristas. La tasa de detección proactiva de contenido vinculado a cualquier organización terrorista en Facebook es del 98,5 por ciento y en Instagram del 92,2. En el caso de Al Qaeda, ISIS y sus aliados, su detección en Facebook se mantuvo por encima del 99 por ciento.

Desnudez y Explotación Infantil

Otra de las políticas que recoge este informe es la desnudez infantil y explotación sexual de los niños. En Facebook, durante el tercer trimestre de 2019 se eliminó alrededor de 11,6 millones de piezas de contenido, un aumento con respecto al primer trimestre de 2019, cuando se eliminaron alrededor de 5,8 millones. Durante los últimos cuatro trimestres, la detección proactiva fue de más del 99 por ciento.

En el caso de Instagram, en el segundo trimestre de 2019 se eliminaron alrededor de 512.000 piezas de contenido, con un 92,5 por ciento de detección proactiva. En el tercer trimestre, los contenido eliminados aumentan a 754.000 piezas de contenido, y mejora la detección (94,6 por ciento).

Ver más