Buscar
Cerrar este cuadro de búsqueda.

Facebook te avisará cuando tus publicaciones sean moderadas por herramientas automáticas

De momento, la novedad se está probando entre un número limitado de usuarios, pero la compañía valorará el impacto de proporcionar estas notificaciones

Durante el primer trimestre de 2021, Facebook también lanzó, por consejo de su organismo de expertos, nuevas experiencias para proporcionar a los usuarios más información de por qué se eliminan sus publicaciones (Pixabay/Gerd Altmann)

15 minutos. Facebook comenzó a hacer varias pruebas, tras la recomendación de su consejo asesor de contenido, para informar a sus usuarios cuando una de sus publicaciones es moderada por las herramientas automáticas de la red social.

Facebook publicó este jueves su primer informe, relativo al primer trimestre de 2021, sobre su consejo asesor de contenido, integrado por expertos externos. Dicho consejo revisa apelaciones de casos de moderación complejos y emite recomendaciones a la compañía.

Aunque no son vinculantes, Facebook se comprometió a implementar parcial o completamente 14 de las 18 recomendaciones emitidas por el consejo asesor de contenido durante el primer trimestre de 2021. Además, 3 están en consideración y una se descartó.

Facebook ya comenzó a introducir, a modo de prueba, algunas de las sugerencias, como la de avisar a los usuarios cada vez que herramientas automáticas participen en un proceso de moderación contra sus publicaciones.

Nuevas experiencias

De momento, esta novedad se está probando entre un número limitado de usuarios. La compañía valorará el impacto de proporcionar estas notificaciones.

Durante el primer trimestre de 2021, Facebook también lanzó, por consejo de su organismo de expertos, nuevas experiencias para proporcionar a los usuarios más información de por qué se eliminan sus publicaciones.

En el caso de las notificaciones por discurso del odio, Facebook incorporó un clasificador adicional. Este puede predecir qué tipo de odio está presente en el contenido. A saber: violencia, deshumanización, mofarse de crímenes de odio, comparaciones visuales, inferioridad, desprecio, blasfemia, exclusión o calumnias.

Esta información más específica sobre la moderación del discurso del odio ya se proporciona a los usuarios de Facebook en inglés. La empresa se comprometió a extenderla a más idiomas en el futuro.

Asimismo, actualizó su política sobre organizaciones e individuos peligrosos. En este sentido, creó 3 clasificaciones de moderación de contenidos en función de la severidad, añadiendo definiciones de términos clave.

Más vistas