Un estudio sugiere que confiar demasiado en la inteligencia artificial en el trabajo puede debilitar nuestras capacidades cognitivas, haciéndonos menos críticos y menos preparados para enfrentarnos a problemas complejos

La inteligencia artificial generativa (IA) se ha convertido en una herramienta clave en muchos sectores laborales, permitiendo a los trabajadores delegar tareas rutinarias en modelos como ChatGPT o DALL-E. Sin embargo, este avance plantea una pregunta fundamental: ¿cómo afecta a nuestras habilidades cognitivas depender de la IA? Un nuevo estudio de Microsoft y la Universidad Carnegie Mellon analiza este impacto, explorando cómo el uso frecuente de estas tecnologías puede reducir la práctica del pensamiento crítico, lo que a largo plazo podría disminuir nuestra capacidad de tomar decisiones independientes.

Un equipo de investigadores de Microsoft y Carnegie Mellon realizó un estudio con 319 trabajadores del conocimiento, quienes compartieron 936 ejemplos de cómo utilizan la IA en su día a día. Entre las tareas descritas se encontraba el uso de DALL-E para generar imágenes educativas, la utilización de ChatGPT para obtener estrategias comerciales y la validación de folletos médicos generados por IA. A partir de estos datos, los investigadores analizaron la confianza de los participantes en la capacidad de la IA para completar tareas, su propia habilidad para evaluar los resultados generados y su confianza en hacer el mismo trabajo sin la asistencia de la IA.

¿Menos pensamiento crítico?

Los resultados fueron claros: cuanto más confiaban los participantes en la IA para realizar una tarea, menos ejercían su pensamiento crítico. En cambio, cuando dudaban de la precisión de la IA, evaluaban sus respuestas con más cuidado y estaban más dispuestos a corregir errores. Los investigadores señalaron que esta tendencia es preocupante, ya que puede llevar a una disminución en la diversidad de enfoques y resultados en el trabajo, lo que refleja un deterioro del juicio crítico y reflexivo.

Otro hallazgo clave del estudio fue que las personas que trabajan bajo presión de tiempo tienden a examinar menos los resultados de la IA, mientras que aquellos en situaciones de alto riesgo, donde un error podría tener graves consecuencias, ejercían un mayor control sobre las respuestas generadas por la IA. Esto sugiere que la comodidad y la inmediatez de las respuestas generadas por la IA pueden ser peligrosas en contextos donde la precisión es crucial.

Sin embargo, los investigadores no consideran que la IA sea un enemigo del pensamiento crítico por naturaleza. En cambio, lo comparan con avances tecnológicos del pasado que generaron preocupaciones similares. Desde la escritura, que Sócrates temía que debilitara la memoria, hasta las calculadoras y la impresión, cada nueva tecnología ha provocado debates sobre su impacto en la mente humana. El problema, según los investigadores, no es la IA en sí misma, sino el uso que hacemos de ella.

Un posible camino para evitar esta “atrofia cognitiva” sería diseñar herramientas de IA que incentiven el pensamiento crítico en lugar de reemplazarlo por completo. Los investigadores proponen que la IA debería proporcionar explicaciones sobre su razonamiento, sugerir mejoras en sus respuestas y ofrecer oportunidades para que los usuarios reflexionen sobre la calidad de los resultados. Así, en lugar de convertirse en una muleta intelectual, la IA podría evolucionar hacia convertirse en un socio en el desarrollo de habilidades cognitivas.

Este estudio plantea una advertencia importante: cuanto más nos apoyemos en la IA sin cuestionarla, más riesgo corremos de debilitar nuestras propias capacidades intelectuales. Aunque no se trata de rechazar la tecnología, sí es esencial aprender a utilizarla de manera que refuerce, en lugar de sustituir, nuestra capacidad de pensar de forma crítica e independiente.

REFERENCIA

The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers