Un estudio comprueba que no es necesario que el algoritmo de YouTube colabore para que las personas seleccionen vídeos radicales y conspirativos

Si buscas vídeos sobre el cambio climático, el holocausto o las vacunas en YouTube, el algoritmo empezará enseguida a presentar recomendaciones de negacionistas, o al menos eso es lo que se creía hasta ahora.

Cerca de un tercio de los españoles y un cuarto de los estadounidenses se informan a través de YouTube, una de las mayores plataformas de medios en línea del mundo, con miles de millones de usuarios y horas y horas de contenido. En los últimos años, ha surgido una narrativa popular en los medios de comunicación que sugiere que los videos de canales de YouTube altamente partidistas y propulsores de teorías conspirativas radicalizan a los jóvenes, y que el algoritmo de recomendaciones de YouTube lleva a los usuarios por un camino de contenido cada vez más radical.

Sin embargo, un nuevo estudio del Laboratorio de Ciencias Sociales Computacionales (CSSLab) de la Universidad de Pensilvania encuentra que son los propios intereses y preferencias políticas de los usuarios los que determinan principalmente lo que eligen ver. De hecho, si las funciones de recomendación tienen algún impacto en la dieta mediática de los usuarios, es moderador.

Homa Hosseinmardi, científico investigador asociado del CSSLab y autor principal del estudio, afirma que «en promedio, depender exclusivamente del sistema de recomendación resulta en un consumo menos partidista».

Cómo funcionan las recomendaciones de YouTube

El algoritmo de recomendación de YouTube utiliza una combinación de factores para determinar qué videos sugerir a cada usuario, adaptándose a sus intereses y comportamientos en la plataforma. Analiza el historial de visualizaciones y búsquedas, cómo interactúa el usuario con los videos (mediante likes, comentarios, suscripciones), el tiempo que pasa viendo cada contenido y la frecuencia con la que interactúa con ciertos tipos de videos. Además, considera la relevancia del contenido basándose en títulos, descripciones y metadatos, y presta atención a los videos recientes y populares.

Aunque gran parte de este proceso es automatizado, YouTube también ajusta manualmente sus recomendaciones basándose en el feedback de los usuarios para mejorar la calidad de las sugerencias y evitar contenido problemático. El objetivo final es ofrecer una experiencia personalizada que mantenga a los usuarios entretenidos y aumente el tiempo que pasan en la plataforma, aunque los detalles específicos del algoritmo son complejos y están en constante evolución.

Varios informes y análisis sugieren que el algoritmo puede favorecer contenido que genera altas tasas de compromiso, como el tiempo de visualización y la interacción del usuario, lo que en algunos casos puede incluir vídeos con contenido polémico o radical. Sin embargo, esto no significa necesariamente que el algoritmo tenga una preferencia inherente por este tipo de contenidos.

Analizando las sugerencias de YouTube con bots

Para determinar el verdadero efecto del algoritmo de recomendación de YouTube en lo que los usuarios ven, los investigadores crearon bots que siguieron las recomendaciones del motor o las ignoraron completamente. Utilizaron la historia de visualizaciones de YouTube de un conjunto de 87,988 usuarios reales recopilada desde octubre de 2021 hasta diciembre de 2022.

Hosseinmardi y coautores se propusieron desentrañar la compleja relación entre las preferencias de los usuarios y el algoritmo de recomendación, una relación que evoluciona con cada video visto. Asignaron cuentas individuales de YouTube a estos bots para poder rastrear su historial de visualización, y estimaron la partidancia de lo que veían utilizando los metadatos asociados a cada video.

En dos experimentos, los bots pasaron por una «fase de aprendizaje», viendo la misma secuencia de videos para asegurar que todos presentaran las mismas preferencias ante el algoritmo de YouTube. Luego, se dividieron en grupos: algunos continuaron siguiendo el historial de visualización del usuario real en el que se basaban; otros fueron designados como «bots contrafactuales» experimentales, siguiendo reglas específicas diseñadas para separar el comportamiento del usuario de la influencia algorítmica.

En el primer experimento, después de las fases de aprendizaje, el bot de control continuó viendo videos del historial del usuario, mientras que los bots contrafactuales se desviaron del comportamiento real de los usuarios y seleccionaron videos únicamente de la lista de recomendados sin tener en cuenta las preferencias del usuario.

Los usuarios humanos, más radicales que los bots

Los investigadores descubrieron que los bots contrafactuales, en promedio, consumían contenido menos partidista que el usuario real correspondiente, un resultado más fuerte para los consumidores más intensos de contenido partidista.

En el segundo experimento, los investigadores estimaron el «tiempo de olvido» del recomendador de YouTube, es decir, cuánto tiempo tarda el algoritmo en dejar de recomendar contenido problemático a usuarios previamente interesados después de que estos pierden el interés.

Los resultados mostraron que, en promedio, las recomendaciones en la barra lateral se ajustaban hacia contenido moderado después de unos 30 videos, mientras que las recomendaciones en la página principal tendían a ajustarse menos rápidamente.

Hosseinmardi concluye que, aunque el algoritmo de recomendación de YouTube ha sido acusado de conducir a sus usuarios hacia creencias conspirativas, no debemos pasar por alto que los usuarios tienen una agencia significativa sobre sus acciones y podrían haber visto el mismo contenido, o peor, incluso sin ninguna recomendación.

Mirando hacia el futuro, los investigadores esperan que otros adopten su método para estudiar plataformas mediadas por IA, donde las preferencias de los usuarios y los algoritmos interactúan, para entender mejor el papel que juegan los motores de recomendación de contenido algorítmico en nuestras vidas diarias.

Los hallazgos están publicados en la revista Proceedings of the National Academy of Sciences.

REFERENCIA

Causally estimating the effect of YouTube’s recommender system using counterfactual bots