En Internet vivimos bajo ‘burbujas de filtros’, que se van construyendo siguiendo el patrón de nuestro historial de visitas. Lo que vemos y leemos se ajusta a nuestro perfil profesional y personal o, en el caso de las Redes Sociales, a nuestros intereses o simpatías hacia ciertos temas. Según afirmaba Mark Zuckerberg, «una ardilla que se muere frente a tu casa podría ser ahora más relevante para ti que la gente muriendo de hambre en África». El término ‘burbujas de filtros’ fue creado por Eli Pariser, activista y autor de The Filter Bubble: What the Internet is Hiding from you. Con este concepto trata de hacernos entender la técnica que muchos sites usan con el fin de mostrar información relevante para cada usuario.
Pero, ¿crean realmente redes sociales como Facebook estas burbujas para que los internautas sólo vean lo que desean ver? Un grupo de investigadores, capitaneado por Eytan Bakshy, analizó la actividad de más de diez millones de usuarios de esta red social con el fin de dar respuesta a estas preguntas. Los resultados no podían ser más contradictorios, pues aunque es cierto que Facebook filtra el contenido según los intereses de los usuarios, son dichos usuarios los censores principales. Decidir hacer clic (o no hacerlo) en un artículo, limita a los lectores la exposición a ideas y puntos de vista que desafían sus actitudes mucho más que los algoritmos marcados por el equipo de Zuckerberg.
Los algoritmos de La red social tratan de anticiparse al contenido que les gustará a sus lectores, pero también pueden ser potencialmente perjudiciales para una democracia online si aísla a las personas contra puntos de vista que, por su ideología, piensen que no va a ser de su agrado. Teniendo en cuenta que dependemos cada vez más de los medios sociales para enterarnos de lo que pasa en el mundo, y que algunos han desplazado a un segundo plano a los medios tradicionales, esto podría ser potencialmente peligroso para avanzar en una sociedad democrática y potenciar una actitud crítica y real ante el mundo que nos rodea.
Según explica el paper publicado en eurekalert.org, «es importante que los investigadores entiendan cómo estos sitios y navegadores personalizados en Internet moldean los puntos de vista de los usuarios con respecto al mundo en comparación con los medios tradicionales«. Por ello, Bakshy y sus colaboradores estudiaron a aquellos usuarios de Facebook en Estados Unidos que publicaban abiertamente sus preferencias políticas. Los investigadores tuvieron en cuenta las noticias que estos colgaban en su muro para sus amigos, registrando si eran afines a ideologías liberales o conservadoras, y determinaron qué tipos de noticias llegaban a los usuarios por medio de los algoritmos sociales de Facebook. También tuvieron en cuenta el contenido al que los usuarios finalmente accedieron y decidieron leer.
En base a esto, los analistas se percataron de que Facebook filtró aproximadamente el 15% de las noticias que podrían ir contra las creencias de sus lectores, pero que los usuarios decidieron personalmente no prestar atención a casi el 70% de las publicaciones que desafiaban sus creencias y que Facebook les mostró sin censura ninguna. Es más, Bakshy asegura que La Red Social de Zuckerberg expone a las personas a más ideas que desafían sus ideologías que otros blogs, redes sociales o canales de noticias.
Fuente y acceso al paper: eurekalert.org
Redacción QUO