Últimas 15minutos

Estudio demuestra que YouTube recomienda videos violentos a cuentas infantiles

Los investigadores crearon 4 cuentas, 2 simulando ser utilizadas por menores de 9 años y las otras 2 por chicos de 14 años

La plataforma de contenido utiliza un algoritmo de recomendaciones que analiza la actividad de un usuario (Pexels)

15 minutos. El algoritmo de YouTube recomienda cientos de videos violentos sobre armas, tiroteos e incluso instrucciones sobre cómo utilizar pistolas a cuentas de menores que buscan contenido relacionado con videojuegos, según un estudio.

La plataforma de contenido utiliza un algoritmo de recomendaciones que analiza la actividad de un usuario. Para ello, emplea el tiempo de visualización, si comparte un video o si señala que es de su agrado. Sobre la base de ello, sugiere otros videos que considera que están relacionados con los intereses del usuario.

YouTube aseguró en ocasiones anteriores que el contenido que recomienda es "responsable"; así consta en un comunicado de 2021. Explica que su sistema clasifica el contenido de los videos identificando si son violentos o "subidos de tono", para limitar la visualización de este contenido "de baja calidad" y evitar recomendarlo en YouTube.

Crearon 4 cuentas

Sin embargo, un estudio realizado por Tech Transparency Project (TTP) demostró que el sistema de recomendaciones de YouTube "muestra cientos de videos" violentos sobre armas, tiroteos e instrucciones sobre cómo utilizar pistolas o cómo convertirlas en armas automáticas a cuentas de menores que buscan contenido relacionado con videojuegos. Este centro de investigación e información estadounidense analiza la influencia de las principales compañías tecnológicas.

Para llevar a cabo este estudio, los investigadores crearon 4 cuentas de YouTube; 2 simulando ser utilizadas por niños de 9 años y las otras 2 por niños de 14 años. Comenzaron a usarlas buscando contenido de videojuegos para mostrar al algoritmo que este era su contenido de interés. Visualizaron videos de juegos como Roblox, Lego Star Wars y Five Nights at Freddy's.

En una de las cuentas de 9 años y en otra de 14 años, los investigadores comenzaron a consumir contenido de videos recomendados por el algoritmo. En las otras 2 cuentas continuaron consumiendo videos sobre videojuegos, pero sin prestar atención a las recomendaciones.

Conclusión

Tras analizar todos los videos visualizados y las recomendaciones de YouTube durante un periodo de 30 días, TTP llegó a la conclusión de que la plataforma sugirió videos violentos sobre tiroteos y armas a todas las cuentas de los menores. En concreto, un número mucho mayor a las cuentas que consumieron videos recomendados, en algunos casos, una cifra 10 veces mayor.

Entre el contenido violento mostrado en las recomendaciones, TTP detalla que había videos con escenas de tiroteos en escuelas y otros tiroteos masivos. Asimismo, demostraciones gráficas de cuánto daño pueden causar las armas en un cuerpo humano. También había guías prácticas para convertir una pistola en un arma totalmente automática. Igualmente, YouTube sugirió una película sobre la vida del asesino en serie Jeffrey Dahmer.

Los resultados de este estudio muestran que YouTube envió 382 videos de armas de fuego reales a la cuenta del menor de 9 años que veía las recomendaciones; es decir, una media de 12 videos al día. En el caso de la cuenta de 9 años que no veía las recomendaciones, el número desciende a 34.

Dudas sobre las garantías de YouTube

Siguiendo esta línea, las cifras para las cuentas de 14 años son de 1.325 videos de armas de fuego reales recomendados a la cuenta que sí visualizó contenido del algoritmo, más de 44 por día; y 172 videos para la cuenta que no seguía las recomendaciones.

Teniendo todo esto en cuenta, los resultados del estudio de TTP presentan dudas sobre las garantías de YouTube; la empresa asegura utilizar algoritmos que cuidan el contenido de forma "responsable". También ilustra que, cuando un jugador muestra interés en los videos recomendados, el algoritmo presenta cada vez más contenido relacionado con la violencia en el mundo real.

La plataforma dispone de una opción de restringir la edad para videos no aptos para menores. No obstante, no tomó medidas para restringir la edad de estos videos; esto, a pesar de que, según detalla en su web, se utiliza un sistema de seguridad infantil que restringe la edad a videos que muestren a adultos "participando en actividades peligrosas que los menores podrían imitar fácilmente, como el manejo de explosivos o desafíos que causan lesiones corporales".

Ver más