En un mundo tan interconectado por las redes sociales, entender cómo las plataformas de vídeos protegen a los menores se convierte en una necesidad vital. Recientemente, un estudio llevado a cabo por varios investigadores de la Universidad Tecnológica de Dublín evaluó la efectividad de las políticas de moderación de contenido en plataformas como TikTok, YouTube e Instagram, al comparar la exposición de menores (13 años) frente a adultos (18 años) a vídeos perjudiciales.
Los investigadores crearon cuentas experimentales que simularon usuarios de 13 y 18 años. Se revisaron 3,000 vídeos en cada plataforma, evaluando tanto el “scrolling” pasivo como el basado en búsquedas. Los resultados fueron alarmantes: los menores encontraron vídeos dañinos mucho más rápido y con mayor frecuencia que los adultos, especialmente en YouTube, donde el 15% de los vídeos recomendados para las cuentas de 13 años resultaron perjudiciales, comparado con solo el 8.17% para las de 18 años. Las recomendaciones de YouTube para adolescentes se mostraron en un promedio de apenas 3:06 minutos de desplazamiento pasivo.
El estudio puso de relieve debilidades significativas en los sistemas de filtrado algorítmico de las plataformas. A pesar de los supuestos controles y modos restringidos ofrecidos por servicios como TikTok, que promete un “Modo Restringido” controlado por los padres, parece que dichos métodos no son lo suficientemente robustos para frenar la avalancha de contenido potencialmente dañino al que los menores tienen acceso. Los autores utilizaron un marco unificado de contenido dañino para analizar el tipo y gravedad del material encontrado, revelando que los temas más frecuentes eran aquellos relacionados con contenido sensible y maduro, como violencia y discursos de odio.
Además, el estudio notó que algunas plataformas carecen de métodos efectivos para verificar la edad, lo que permite a los menores representar edades falsas. Este hallazgo enfatiza la necesidad urgente de implementar métodos de verificación de edad más estrictos para evitar que los menores accedan a contenido no adecuado para su edad.
El estudio concluye que es necesario que las plataformas mejoren no solo sus políticas de moderación, sino que también refuercen los sistemas de verificación de edad. Mientras tanto, la responsabilidad de proteger la navegación de los menores en internet sigue recayendo en padres y cuidadores, a la espera de que las redes sociales asuman un papel más activo y efectivo en la protección de sus usuarios más jóvenes.