Los autores del estudio afirman que ChatGPT podría ayudar a aumentar la aceptación de las vacunas al desmentir los mitos sobre su seguridad

Uno de los principales temores asociados a los grandes modelos de lenguaje o de inteligencia artificial generativa, como ChatGPT, es que sean el origen de un tsunami de desinformación y bulos en las redes sociales. No obstante, también pueden ser las mejores herramientas para combatir estos problemas.

Los investigadores de un estudio publicado en la revista Human Vaccines and Immunotherapeutics plantearon al chatbot de inteligencia artificial (IA) las 50 preguntas sobre las vacunas contra covid-19 más frecuentes. Incluían consultas basadas en mitos e historias falsas, como que la vacuna causa los síntomas asociados al covid de larga duración.

Los resultados muestran que ChatGPT obtuvo una puntuación media de nueve sobre diez en precisión. El resto de las veces era correcto, pero dejaba algunas lagunas en la información proporcionada, según la publicación.

Basándose en estos resultados, los expertos, que dirigieron el estudio del grupo de investigación GenPoB con sede en el Instituto de Investigación Sanitaria (IDIS)-Hospital Clínico Universitario de Santiago de Compostela, concluyen que el programa de IA es una «fuente fiable de información no técnica para el público», especialmente para personas sin conocimientos científicos especializados.

No obstante, también se pusieron de manifiesto algunas preocupaciones sobre la tecnología; entre ellas, que la aplicación cambie sus respuestas en determinadas situaciones.

«En general, ChatGPT construye una narrativa en línea con la evidencia científica disponible, desmintiendo los mitos que circulan en las redes sociales», explica el autor principal, Antonio Salas, que además de dirigir el grupo de investigación GenPoB es profesor de la Facultad de Medicina de la Universidad de Santiago de Compostela, en España.

«De este modo se facilita potencialmente un aumento de la aceptación de la vacuna». ChatGPT puede detectar preguntas falsas relacionadas con las vacunas y la vacunación. El lenguaje que utiliza no es demasiado técnico y, por tanto, fácilmente comprensible para el público en general, sin perder rigor científico.

«Reconocemos que la versión actual de ChatGPT no puede sustituir a un experto ni a las pruebas científicas. Pero los resultados sugieren que podría ser una fuente fiable de información para el público».

En 2019, la Organización Mundial de la Salud (OMS) incluyó las dudas sobre las vacunas entre las diez principales amenazas para la salud mundial. Durante la pandemia, la desinformación difundida a través de las redes sociales contribuyó a que el público desconfiara de las vacunas contra el covid-19.

Entre los autores de este estudio se encuentran los del Hospital Clínico Universitario de Santiago, que la OMS designó centro colaborador de seguridad de vacunas en 2018. Los investigadores del centro han estado explorando los mitos en torno a la seguridad de las vacunas y las situaciones médicas que se creen falsamente, que son una razón para no vacunarse. Estas preocupaciones erróneas contribuyen a la indecisión sobre los antígenos.

Los responsables de la publicación se propusieron comprobar la capacidad de ChatGPT para aclarar los hechos y compartir información precisa sobre la seguridad de las vacunas covid de acuerdo con las pruebas científicas actuales.

ChatGPT a prueba

ChatGPT permite mantener conversaciones e interacciones similares a las humanas con un asistente virtual. El programa es muy fácil de usar, lo que la hace accesible a una amplia población. Sin embargo, muchos gobiernos están preocupados por la posibilidad de que esta herramienta se emplee de forma fraudulenta en los entornos educativos, como las universidades.

La investigación se diseñó para desafiar al chatbot al formular las dudas más frecuentes que recibe el centro colaborador de la OMS en Santiago. Las consultas abarcaban tres temas. El primero eran los conceptos erróneos referentes a la seguridad, como que la vacuna causa covid largo. El siguiente tema eran las falsas contraindicaciones, es decir, las situaciones médicas en las que no es peligroso utilizar el antígeno, como en el caso de las mujeres en periodo de lactancia.

El tercer tipo de cuestiones también se referían a las contraindicaciones verdaderas —un estado de salud en el que no debe utilizarse— y a los casos en los que los médicos deben tomar precauciones, por ejemplo, un paciente con inflamación del músculo cardiaco.

Después, los expertos analizaron las respuestas y las compararon en cuanto a veracidad y precisión con las pruebas científicas actuales y las recomendaciones de la OMS y otros organismos internacionales.

Los autores señalan que esto era relevante porque los algoritmos creados por las redes sociales y los motores de búsqueda de internet suelen basarse en las preferencias habituales de cada usuario. Esto puede dar lugar a «respuestas sesgadas o erróneas», añaden.

Los datos mostraron que la mayoría de las preguntas se contestaron correctamente, con una puntuación media de nueve sobre diez, lo que se define como «excelente» o «bueno». Las respuestas a los tres temas de las preguntas fueron por término medio un 85,5% exactas o un 14,5% exactas, pero con lagunas en la información facilitada por ChatGPT.

La aplicación proporcionó resultados correctos a las consultas derivadas de auténticos mitos sobre las vacunas y a las consideradas en las directrices de recomendación clínica, es el caso de las contraindicaciones falsas o verdaderas.

Aunque el equipo de investigación destaca los inconvenientes de ChatGPT a la hora de proporcionar información sobre vacunas.

El profesor Salas, especializado en genética humana, concluye: «ChatGPT ofrece respuestas diferentes si se repite la pregunta ‘con unos segundos de retraso'».

«Otra preocupación que hemos visto es que esta herramienta de IA, en su versión actual, también podría ser entrenada para proporcionar respuestas no acordes con la evidencia científica».

«Se puede ‘torturar’ al sistema de tal manera que proporcione la respuesta deseada. Esto también es válido para otros contextos diferentes al de las vacunas. Por ejemplo, sería posible hacer que el chatbot se alineara con narrativas absurdas como la teoría de la Tierra plana, negara el cambio climático u objetara la teoría de la evolución, por poner algunos casos».

«Es importante señalar que estas respuestas no son el comportamiento predeterminado de ChatGPT. Así, los resultados que hemos obtenido en relación con la seguridad de las vacunas pueden extrapolarse probablemente a muchos otros mitos y pseudociencias».

REFERENCIA

Chatting with ChatGPT to learn about safety of COVID-19 vaccines – A perspective