El informe de salud de RFK Jr., Secretario de Sanidad de Trump, parece escrito por un chatbot con resaca digital, y contiene varios errores en las citas

La inteligencia artificial generativa, como ChatGPT, puede producir contenido útil pero también tiende a «alucinar», es decir, inventar información aparentemente creíble pero inventada. Este fenómeno es especialmente problemático cuando se utiliza en contextos de alta responsabilidad, como informes científicos o políticos. Las citas falsas, los enlaces rotos y las fuentes inexistentes son señales de este tipo de error.

El informe “Make America Healthy Again” (MAHA), promovido por Robert F. Kennedy Jr., Secretario de Sanidad en EE.UU. bajo el mandato de Donald Trump, ha encendido todas las alarmas entre expertos y medios de comunicación por lo que parecen ser numerosos errores en su contenido científico. Una investigación del medio NOTUS encontró decenas de citas incorrectas, incluyendo enlaces rotos, números de edición erróneos y autores inexistentes. Pero el problema va más allá: varios de los estudios utilizados como soporte ni siquiera existen. NOTUS identificó al menos siete fuentes totalmente ficticias.

Otro análisis, esta vez del Washington Post, halló que 37 de las 522 citas del documento se repiten en distintos puntos del informe. Lo más revelador es que varias de las URLs utilizadas incluyen el término “oaicite”, una marca que OpenAI usa para rastrear las referencias generadas por modelos como ChatGPT. Esta pista indica que la IA no solo pudo haber participado en el proceso de redacción, sino que podría haber sido responsable directa de la inclusión de contenido erróneo.

El gobierno de ChatGPT

Las IA generativas, como ChatGPT, son conocidas por producir errores de este tipo, conocidos como “alucinaciones”. A pesar de que estos modelos pueden ser herramientas útiles para resumir información o generar borradores, no están diseñados para producir investigaciones científicas verificadas. Casos similares han ocurrido en el ámbito legal, donde abogados han presentado documentos con citas falsas generadas por IA, lo que ha derivado en sanciones judiciales. Las empresas tecnológicas responsables de estos modelos también han sido criticadas por no prevenir estos usos indebidos.

Lo paradójico es que el propio RFK Jr. ha sido un defensor entusiasta de estas tecnologías. Durante una comparecencia ante el Congreso en mayo, declaró que “ya estamos usando estas nuevas tecnologías para gestionar los datos de salud de manera más eficiente y segura”. No obstante, el uso de IA en un documento de tanta importancia pública ha sembrado dudas sobre la rigurosidad del proceso detrás del informe.

En una rueda de prensa celebrada el jueves, la secretaria de prensa Karoline Leavitt trató de restar importancia a las críticas, atribuyendo los errores a simples “problemas de formato”. Evitó referirse explícitamente al uso de inteligencia artificial en la elaboración del texto, aunque defendió el contenido como “basado en buena ciencia que nunca ha sido reconocida por el gobierno federal”.

Ese mismo día, el archivo del informe MAHA fue modificado: se eliminaron algunas referencias que contenían la marca “oaicite” y se reemplazaron algunas de las fuentes ficticias por citas alternativas. Andrew Nixon, portavoz del Departamento de Salud y Servicios Humanos, confirmó a The Washington Post que “se han corregido errores menores de formato y citas”, pero insistió en que “el contenido del informe MAHA sigue siendo el mismo: una evaluación histórica y transformadora por parte del gobierno federal para comprender la epidemia de enfermedades crónicas que afecta a los niños de nuestra nación”.

A pesar de las correcciones, persisten las dudas sobre la credibilidad del informe. En un momento en que la confianza en las instituciones públicas ya está debilitada, el uso descuidado de tecnologías emergentes como la inteligencia artificial en documentos oficiales podría agravar aún más la desinformación y la confusión entre el público. La polémica alrededor del informe MAHA abre un debate urgente: ¿pueden las herramientas de IA formar parte del proceso científico y gubernamental sin comprometer la precisión y la veracidad? Por ahora, el caso RFK Jr. sugiere que la respuesta sigue lejos de ser clara.

RERERENCIA

The MAHA Report

Foto: Gage Skidmore