Un nuevo estudio revela que incluso las búsquedas sin sesgo aparente acaban guiándote hacia información que confirma lo que ya creías.

Cuando usamos buscadores como Google o herramientas de IA como ChatGPT, solemos pensar que estamos accediendo a información imparcial. Pero si comparas los resultados que obtiene tu cuñado, que tiene ideas políticas distintas a las tuyas, verás que son diferentes.

En una época marcada por la polarización en temas tan variados como la salud pública o la política, un nuevo estudio de la Universidad de Tulane ofrece una explicación sobre por qué nos cuesta tanto cambiar de opinión, especialmente cuando buscamos respuestas en internet. El estudio, publicado en la revista Proceedings of the National Academy of Sciences, demuestra que las personas tienden a usar los motores de búsqueda de forma que, aunque sin intención consciente, refuerzan sus creencias previas.

La autora principal, Eugina Leung, profesora asistente en la Escuela de Negocios A. B. Freeman de Tulane, lo explica así: “Cuando la gente busca información en línea —ya sea en Google, ChatGPT o los nuevos buscadores con IA— suele elegir términos que reflejan lo que ya creen, a veces sin darse cuenta. Como los algoritmos están diseñados para ofrecerte ‘las respuestas más relevantes’, eso termina confirmando tus ideas previas. Y así, se vuelve más difícil descubrir otros puntos de vista”.

Los investigadores realizaron 21 experimentos con casi 10.000 participantes para analizar cómo la gente busca información en las principales plataformas. Temas como la cafeína, la energía nuclear, los índices de criminalidad o la COVID-19 mostraron un patrón claro: los usuarios tienden a formular sus búsquedas desde el sesgo de sus creencias. Por ejemplo, quienes creen que la cafeína es saludable buscan “beneficios de la cafeína”, mientras que los escépticos escriben “riesgos de la cafeína para la salud”. Estas pequeñas diferencias llevan a resultados de búsqueda completamente distintos, que refuerzan las ideas con las que se comenzó.

Lo más llamativo es que este efecto ocurre incluso cuando los participantes no tienen intención consciente de confirmar sus ideas. En varios estudios, menos del 10 % admitió haber formulado sus búsquedas con la intención de confirmar lo que ya pensaban, pero sus consultas igualmente coincidían con sus opiniones previas.

El polarizado eres tú, no Google

El problema no se limita a cómo buscan las personas, sino también a cómo responden los buscadores. La mayoría están diseñados para priorizar la relevancia, es decir, mostrar resultados muy relacionados con las palabras exactas que el usuario ha escrito. Pero esa relevancia, advierte Leung, puede costarnos una visión más completa de un tema.

Esta dinámica también se repitió en plataformas basadas en inteligencia artificial como ChatGPT. Aunque estas herramientas suelen incluir puntos de vista opuestos de forma breve, los usuarios tienden a quedarse con la perspectiva alineada con su consulta inicial. Es decir, la IA no escapa del efecto de cámara de eco, simplemente lo suaviza.

Los investigadores probaron diferentes métodos para alentar a los usuarios a considerar otras perspectivas, como pedirles que realizaran más búsquedas o pensar en contraargumentos. Sin embargo, estas estrategias tuvieron poco efecto. Solo una solución funcionó de forma consistente: cambiar el algoritmo.

Cuando las herramientas de búsqueda se programaban para mostrar una variedad de resultados más amplia —sin importar lo estrecho o sesgado de la consulta—, los usuarios eran más propensos a reconsiderar sus creencias. En un experimento, quienes vieron una selección equilibrada de artículos sobre los efectos de la cafeína salieron con opiniones más moderadas y mostraron más apertura a cambiar su comportamiento.

Curiosamente, los usuarios calificaron los resultados equilibrados como igual de útiles y relevantes que los personalizados. Esto sugiere que los buscadores podrían desempeñar un papel clave en la lucha contra la polarización si se diseñan con esa intención. Incluso se propuso una función conceptual llamada “Buscar con amplitud”, un botón que haría lo contrario del famoso “Voy a tener suerte” de Google: mostrar intencionadamente una gama más variada de perspectivas sobre un tema.

“Dado que la IA y los motores de búsqueda están integrados en nuestra vida diaria, incorporar un enfoque de búsqueda más amplio podría reducir las cámaras de eco para millones —o incluso miles de millones— de usuarios”, concluye Leung. “Nuestra investigación demuestra cómo decisiones de diseño bien pensadas pueden inclinar la balanza hacia sociedades más informadas y, potencialmente, menos polarizadas”.

REFERENCIA

The narrow search effect and how broadening search promotes belief updating